wtorek, 28 stycznia 2014

  1. Neutralność sieci
Berners-Lee stwierdził, że kto płaci za łącze internetowe o szybkości 300 Mb/s, powinien surfować z dokładnie taką prędkością. Nie ma przy tym znaczenia, czy akurat ogląda strumień wideo, pobiera duży plik czy rozmawia z babcią za pośrednictwem usługi VoIP - opłacone 300 Mb/s to zawsze 300 Mb/s.

  1. Spowalnianie łączy
1. Blokowanie bądź hamowanie transmisji P2P oraz telefonii internetowej. W tym celu wykorzystuje się standardowo kontrowersyjną technologię głębokiej inspekcji pakietów (DPI), pozwalającą analizować zawartość przesyłanych pakietów danych.
2. Jeden na czterech providerów korzysta z metod zarządzania siecią, aby zapewnić niezawodność i stabilność oferowanych łączy - w ramach tych działań
mieści się często hamowanie dostępu do określonych rodzajów treści, na przykład strumieniowania multimediów.
3. Co trzeci dostawca usług internetowych manipuluje przepustowością łączy, aby promować własne usługi takie jak IPTV czy telefonia internetowa.

  1. Internet i ekstranet
NAS – komputer z dyskiem, do którego ma dostęp każdy komputer połączony do sieci LAN
Internet = infrastruktura łączności (linie, sprzęt, oprogramowanie).
WWW = zasoby (informacje i usługi) dostępne za pośrednictwem Internetu.
•Online – w czasie rzeczywistym (podobnie jak rozmowa przez telefon) bezpośrednie, zdalne korzystanie z usług i zasobów informacyjnych udostępnianych przez odległe od siebie komputery.
•Offline – przesyłanie informacji pomiędzy komputerami, która dociera do adresata z opóźnieniem czasowym (podobnie jak wysłanie maila lub napisanego listu).

  1. Rozpoczynając wdrażanie Intranetu w firmie, należy:
• opisać wizję funkcjonowania Intranetu,
• dopilnować zweryfikowania tej wizji przez kompetentne i zaufane osoby,
• sprecyzować swoją wizję na poziomie wdrożenia dla dwóch wyróżnionych grup,
• przemyśleć sposób wykorzystania Intranetu przez członków wybranych grup i rozwinąć w tym kierunku plan, koncentrując się na szybkich powodzeniach i ewentualnych długoterminowych niepowodzeniach,
• przystąpić do szczegółowego projektowania krótkoterminowych zamiarów,
• pracować nad zainteresowaniem kolejnych grup projektem wdrożenia Intranetu do redakcji,
• opracować kompleksowy plan ze szczególnym uwzględnieniem ukrytych kosztów,
• pamiętać o ocenie postępów prac, najlepiej w okresach tygodniowych, zwracając jednocześnie uwagę na pojawiające się trendy w tej branży,
• aktualizować swoją wizję, strategię i bieżące zadania.
  1. VPN – tworzenie tuneli pomiędzy komputerami
Obejście blokady providerów
• Operatorzy sieci VPN, np. blackVPN, dysponują serwerami w różnych krajach i oferują szerokopasmowe, szyfrowane połączenia z tymi serwerami w cenach już od 5 € miesięcznie.
• Oprócz ograniczeń lokalnego operatora można w ten sposób obejść blokady usług internetowych dla użytkowników z określonych krajów. Przez tunel VPN można korzystać na przykład z usługi Hulu czy z zablokowanych dla naszego kraju klipów na portalu YouTube.

Extranet
• Prywatna sieć oparta na internetowym protokole transmisji informacji,
• służy do bezpiecznej (podobnie jak ma to miejsce w Intranecie) komunikacji z wyróżnionymi zewnętrznymi użytkownikami – np. między odległymi redakcjami jednego pisma, a także z biznesowymi partnerami, zaopatrzeniowcami i klientami.
• Sieć tego typu jest także nazywana siecią korporacyjną, VPN – Virtual Private Networks lub WLAN – Wide Local Area Network (także, ale już w innym znaczeniu, lokalnym, nazywany Wireless LAN – bezprzewodowy LAN).
• VPN – tworzenie tuneli pomiędzy komputerami.
  1. Atrakcyjność nazw domen
•Wyspa Nive oferuje – .nu po prawej stronie adresu, w wielu językach oznaczają „coś nowego” lub „teraz”.
•Republika Congo - .cd.
•Stacje radiowe .fm (rmf.fm) lub .am, którymi dysponuje Armenia i Mikronezja.
•Dla Brytyjczyków .bt – skrót wyróżniający Bhutan.
•Austriacy dysponują ciekawym skrótem nazwy państwa .at,
•.is – Islandia (who.is)
•Tongo – mała wysepka na Pacyfiku - .to (zrobie.to)
•Tuval - .tv

  1. Cybersquatting „dziki lokator internetowy”
•Proceder kupowania domen w celu ich późniejszego odsprzedania po zawyżonej cenie.
•„dziki lokator internetowy”.

  1. Typosquatting
•Badacze z Uniwersytetu Harvarda obliczyli, że Google może zarabiać na typosquattingu aż 497 milionów dolarów rocznie.
•Typosquatting polega na rejestrowaniu domen o nazwach bardzo podobnych do domen często odwiedzanych.
•Badacze Tyler Moore i Benjamin Edelman postanowili oszacować jak duże mogą być przychody z typosquattingu dla Google. W tym celu wybrali 3264 adresy z domeny .com i korzystając z listy typowych literówek wygenerowali 900 000 adresów. Za pomocą odpowiedniego programu sprawdzili 285 000 z nich i stwierdzili, że 60% z nich zawierało reklamy Google. Na podstawie tych danych obliczyli, że Google może na tych reklamach zarabiać prawie pół miliarda dolarów rocznie.
•Domeny z literówkami są więc na pewno na rękę Google. Trzeba jednak dodać, że Google usuwa reklamy ze stron z literówkami na wniosek właściciela domeny na podstawie której domeny te zostały utworzone.

  1. Składowe adresów
Top-level domains ustalane przez ICANN (The Internet Corporation for Assigned Names) dzielą się na trzy kategorie:
–generic top-level domains (gTLD),
–country code top-level domains (ccTLD)
–infrastructure top-level domains.
•Strefy zastosowań: com - komercyjne edu - edukacyjne gov - rządowe int - międzynarodowe mil - wojskowe net - organizacje sieci komputerowych org – reszta

Second Level Domain – druga składowa domeny SLD
•Nazwa funkcjonalna adresu, jeśli w ogóle występuje, jest umieszczana na drugim poziomie, np. com.pl.
•Wspomniany drugi poziom adresu tworzy składowa nazywana Second-Level Domain (SLD).
•Zwykle w tym miejscu pojawia się nazwa funkcjonalna (com, gov, net itp.) lub regionalna (waw, poznan, szczecin itp.).
•Komputery, których nazwa adresu kończy się na: com.pl, są zarejestrowane w Polsce i zadedykowane (zazwyczaj) sprawom komercyjnym – tak jak przykładowy adres www.xxx.com.pl.
•W Polsce rejestracją nazw domen na poziomie SLD zajmuje się NASK (www.nask.pl). „Zajmowanie się” to także przyjmowanie określonych opłat za rejestrację domeny. 178 partnerów: dns.pl/porozumienie/partner.html

  1. Subdomena
•Właściciel domeny o nazwie np. „pt.pl” ma prawo tworzenia pełnych adresów dla każdego komputera w swojej domenie/sieci, a także kolejnych subdomen, np. archiwum.pt.pl, na dalszych poziomach adresacji – (podobnie jak numery mieszkań w bloku pozostają w gestii administracji lub właściciela budynku, a nie w gestii miasta lub dzielnicy).

URL – Uniformal Resource Locator – precyzyjny adres strony
•Uniformal Resource Locator, np. http://www.pol.pl./katalog
•http
•www.pol.pl.
•katalog
DNS – Domain Name Servers – adres precyzyjny strony, operator domeny – registrator.
IPv4 I IPv6
•Tłumaczeniem słów (literowych skrótów) na liczbową postać zajmują się DNSy - Domain Name Servers.
•Liczbowy adres jest to ciąg czterech liczb z zakresu 0-255 każda, rozdzielonych kropkami, np. 196.116.146.6.
•DNS służy do przyjaznego użytkownikowi oznaczania adresów stron i stronic internetowych.
•Opisy każdej domeny znajdują się, z powodów niezawodnościowych, w co najmniej dwóch serwerach – Primary DNS i dalszych – Secondary DNS.
•Międzykontynentalny i międzynarodowy ruch ma natomiast swojego „globalnego tłumacza” i swój „globalny drogowskaz” adresów w DNS-ach o nazwie Root-Servers, stanowiących wierzchołek hierarchii DNS-ów.
•System informacji o adresach oraz tłumacz adresów symbolicznych.
•DNS Servers np. www.chip.pl = 195.116.104.13
•.Third-Level-Domain.Second-Level domain.Top-Level-Domains (TLD) nazwa_hosta.treści(znaczenie).pochodzenie geograficzne
•Na szczycie struktury DNS - Root-Level-Servers (w USA) = kręgosłup całego Internetu.

  1. Aliasy
•Długie adresy: np. f128.us.mail.Yahoo!.com, czy ww.setiathome.ssl.berkeley.edu/stats/country_134.html.
•Użytecznym rozwiązaniem jest w tym przypadku korzystanie z tzw. aliasów.
•Usługę tę świadczą firmy o prostej nazwie domeny (np. www.w.pl).
•Alias jest zatem uproszczeniem nazwy adresu (odnosi się to także do adresów poczty elektronicznej) i w sygnalizowanym wcześniej przypadku adres www.dobry.com.pl/abacki przyjmie postać www.abacki.w.pl.
•Alias może być też nadawany przez administratorów sieci, na przykład rambo.id.uw.edu.pl zamiast www.do.id.uw.edu.pl/~rambo.

USŁUGI W INTERNECIE
  1. Zasady konstrukcji stron
    1. Oczekiwania
Pierwsze wrażenie jakie odnosi wizytujący stronę,
•umieszczanie na pierwszych stronicach podstawowych informacji o zakresie usług/produktów firmy, a dalej katalogów online oraz odnośników do wszelkich publikacji związanych z przedmiotem działalności firmy,
•misje witryny: edukacyjna i zarządzania reputacją firmy.
•Przykładem przestrzegania takich zasad są takie firmy jak ICI lub Elf. Na stronie Elfa jest przedstawiona historia benzyny od początku świata, przez tworzenie się ropy, jej wydobycie, przetwórstwo, aż do transportu do stacji benzynowej.
•Rzadko bywa tak, iż firma jest bardzo dobra, a jej witryna kiepska. Zazwyczaj rzeczywisty, bieżący obraz firmy znajduje swoje bezpośrednie odzwierciedlenie w wirtualnym świecie.
    1. B
      Strona – Site
      URL - page
      udowa stron
Zasoby Sieci tworzą zbiory pogrupowane w stronach (witrynach, portalach). W większości są one zapisane w formacie nazywanym hipertekst. Jest to logiczna kombinacja komputera i tekstu, komputerowy interfejs pozwalający na encyklopedyczne przeglądanie tekstów.
Każda strona (site) WWW zawiera zazwyczaj jeden monotematyczny zbiór informacji. Jest ona podzielona na części, które niefortunnie także są nazywane stronami (page) - dla wyróżnienia przyjęto nazywać je słowem: stronice, w znaczeniu pojedynczych kartek.
A zatem zbiory WWW są nazywane stronami, które z kolei są dzielone na pojedyncze „kartki” – stronice.

    1. Hipertekst
•Strony WWW są budowane w specjalny sposób, potocznie mówi się, iż są napisane w HTML-u. O HTML: home.pl/pomoc/kursy/html,
•ułatwia przeglądanie i odczytywanie zawartości stron i stronic,
•strony mogą zawierać informacje w każdej formie – teksty, rysunki, fotografie, dźwięki i sekwencje wideo (multimedia).
•Linki - wskazanie linku można porównać do zainicjowania czynności odszukania hasła w encyklopedii.
    1. Link inaczej
•wzbogaci Sieć o wiele nowych możliwości, np. pozwoli odtwarzać filmy bez dodatkowych wtyczek.
•+ JavaScript ostatecznie pogrzebią prywatność w Internecie.
•HTML5 umożliwia zapisywanie danych stron WWW w pamięci komputera czy telefonu. Dane mogą być zdalnie odczytywane, zmieniane i usuwane.
    1. Test zgodności kodu z przeglądarkami
SLAJDY
    1. Strony
•Portal, „superstrona” – udostępnia jeden punkt interakcji z całym potencjałem informacyjno-usługowym;
•Zazwyczaj składają się na nią: wewnętrzny szperacz, zasoby informacyjno-usługowe, katalog tych zasobów, linki do wyróżnionych innych stron (np. sklepy, giełdy) oraz darmowe usługi – skrzynka pocztowa, miejsce na prywatną stronę, kawiarenka internetowa;
•Portal wielotematyczny – portal horyzontalny,
•portal monotematyczny – portal wertykalny (wortal),
•witryna – strona zazwyczaj prezentująca firmę, osobę.
  1. Mush-ups
Połączenie fragmentów zawartości wielu stron w celu stworzenia nowej strony – hybrydy.
Przykładami takich stron są połączenia map (Google) z ofertą sprzedaży nieruchomości (HausingMaps.com), gromadzenie informacji o sytuacji na drogach z miejskich WebCamów i innych źródeł.
PERSONALNE mash-ups
•Yahoo, I.B.M., Microsoft i inni tworzą systemy pozwalające użytkownikom, bez przygotowania informatycznego, tworzyć użyteczne aplikacje łączące (“mashing up”) różne onlinowe źródła informacji.
Yahoo’s mash-up tool, Pipes,
•Produkt I.B.M., - QEDWiki — dedykowane sprzedawcom, księgowym – osobom potrzebującym informacji z różnych źródeł do rozwiązywania biznesowych problemów. I.B.M. opracował 10-minutowy tutorial QEDWiki opublikowany w YouTube.

  1. Kreator stron

  1. Narzędzia do budowy stron
•Dreamweaver
•Microsoft FrontPage (następcy: Expression Web Designer, SharePoint Designer)
•Pajączek
•Edytor tekstowy
•Inne
•GoLive
•NetObjects Fusion

  1. Komponenty używane przy konstrukcji stron
JavaScript 55.87%
Frames 23.49%
StyleSheets 35.06%
Java 2.58%
IFrames 7.72%
GIF Images 61.22%
JPG Images 46.42%
PNG Images 4.11%
Flash/Shockwave 9.55%
  1. Java Script
•jest językiem programowania.
•Umożliwia wprowadzenie interaktywności do HTML-owych Stron.
•Produkty Javy można wprost wkładać do Stron.
•Narzędzia JavaScriptu dostępne są bez opłat, subsydiowane przez Netscapea i Internet Explorera.
    1. Style Sheets
    2. GIF, JPEG, PNG
    3. Widgety
•Interaktywne moduły reklamowe instalowane na stronach, także „elementy graficzne interfejsu graficznego”.
For consumers, they show the lowest price on goods that would interest them based on page context. For publishers, it shows the highest price consumers are willing to pay for a given item.
  1. Najlepsze czcionki do internetu:
Veranda, Tahoma, Arial, Times New Roman
  1. Czcionki na ekranie
Czytelność strony jest pochodną doboru formy zapisu treści publikowanych w Sieci.
•krój czcionki,
•kolor czcionki,
•tło czcionki,
•kolor elementów tła całej strony

  1. Struktura oglądania strony
•Większość stron jest przeglądana, ale nie jest czytana.
•Naturalny odruch czytania (w języku polskim) od lewej do prawej i z góry w dół zmusza do zachowania równowagi między obrazem i tekstem; obraz powinien być umieszczony po lewej stronie ekranu.
•Ważne ilustracje należy umieszczać po prawej stronie ekranu – zdominują one treści będące po lewej stronie ekranu.
•Najczęściej zwracana jest uwaga na lewy górny róg stronicy oraz na tekst, który jest umieszczony bezpośrednio pod ilustracją zajmującą tę część obrazu (najlepiej logo).
•Uwaga czytających jest skierowana na wyróżnione fragmenty tekstów.
•Podobny efekt jest związany z odwracaniem uwagi od zasadniczych treści strony przez przyciski nawigacyjne. Celowe jest zatem zastępowanie ich innymi formami nawigacji, na przykład łatwym dostępem do mapy strony.

  1. CMS – System Zarządzania Zawartością
(Content Management System)
•Jest to program umożliwiający bezpośrednie wprowadzanie informacji do „szablonów”.
•Redaktor dbający o aktualność określonych informacji wyświetlanych na zarządzanej przez niego Stronie, opracowuje wiadomość (np. bieżące notowania walut) przy pomocy dowolnego edytora i za pośrednictwem CMS-u bezpośrednio przesyła swój materiał na Stronę.
Standardowe funkcje CMS:
•zarządzanie zasobami,
•rozbudowany edytor umożliwiający tworzenie i formatowanie dokumentów bez znajomości HTML,
•integracja z pakietem MS Office,
•definiowanie procesów workflow dla publikowanych dokumentów,
•mechanizmy służące do zarządzania wyglądem i strukturą portalu - modułowość, dedykowane narzędzia,
•możliwość dodawania metadanych do dokumentów,
•podział użytkowników na role ze względu na wykonywane zadania i udostępnione im funkcje systemu,
•mechanizmy bezpieczeństwa i autoryzacji,
•otwarta architektura systemu (możliwość dodawania mechanizmów dynamicznych: bazy notowań, wykresy, kalkulatory, aplikacje do tworzenia formularzy, zlecenia internetowe, testy, listy dyskusyjne, chaty, forum, gry itp., e-commerce, SMSy),
•personalizacja i statystyki,
•wyszukiwarka.

  1. BYOD – Bring Your Own Device
BYOD (Bring Your Own Device) to trend polegający na używaniu przez pracowników w miejscu pracy swoich prywatnych smartfonów i tabletów.
ZAGROŻENIE: wyciek danych - Urządzenia przynoszone do pracy na ogół łączą się z internetem przez firmową sieć WiFi. Użytkownicy logują się do sieci używając swoich loginów i haseł, ale to nie znaczy, że ich smartfony, tablety i laptopy są objęte firmowymi politykami bezpieczeństwa. Aby tak było, urządzenia te musiałyby zostać wciągnięte do zarządzanej sieci firmowej, ale instalacja agentów domeny na wszystkich prywatnych urządzeniach nie jest możliwa ze względu na różnorodność systemów operacyjnych i ich wersji. Takie niezarządzane urządzenia nie tylko narażają sieć na zwiększone ryzyko infekcji i wycieku danych, mogą też zbytnio ją obciążać poprzez aplikacje takie, jak radio internetowe, czy streaming wideo.
  1. Oczekiwania odwiedzających stronę
•Użyteczność,
•Funkcjonalność,
•Intuicyjność,
•Wydajność.
  1. Zarządzanie stronami powinno uzględniać…
•szacunkową liczbę odwiedzających Stronę,
•kim są odwiedzający Stronę Internauci?
•jakiego systemu operacyjnego (SO) używają i jakiej przeglądarki (np. czy Strona spełnia wymogi standardów HTML, XHTML, CSS)?
•kto polecił odwiedzającym Stronę?
•liczba rzeczywistych odwiedzin (Stat4You, TheCounter.com),
•szybki, ciągły (24/7) dostęp do Strony,
•dzienne, tygodniowe, miesięczne statystyki pozwalające ocenić:
–jakiej przeglądarki używają odwiedzający?
–rozdzielczość ekranu odwiedzających?
–SO odwiedzających?
–jakie Strony mają linki do budowanej Strony?
–jakie szperacze wykorzystano do lokalizacji budowanej Strony?
–jakich słów kluczowych używali odwiedzający w szperaczach?
•stan liczników życia Strony, łącznie z niewidocznym.
  1. 7 zasad efektywnej strony WWW
•Zasada 1: konsument ma rację – słuchaj i odpowiadaj na jego potrzeby. Należy zrozumieć dlaczego konsumenci odwiedzają stronę.
•Zasada 2: Określenie podstawowego celu utrzymywania strony. Uświadomienie akcji, które chcemy sprowokować u określonych klientów.
•Zasada 3: Nadawać priorytet doświadczeniu klientów. Klienci odchodzą do konkurencji, bo czują się niedocenieni lub szacują, że koszt dalszego prowadzenia interesów jest większy od uzyskiwanych korzyści. Uwzględniając znane doświadczenia klientów łatwiej ich utrzymać.
•Zasada 4: Wykorzystywanie wiedzy o klientach.
•Zasada 5: Ocena uchybień strony. Np. Analiza niesatysfakcjonujących wyników poszukiwań na stronie.
•Zasada 6: Kreowanie dialogu z konsumentem. Dostępne narzędzia personalizacji ułatwiają prowadzenie dialogu, dostosowanie go do specyficznych odbiorców (kwestia pozyskanych danych osobowych, zachowań).
•Zasada 7: Optymalizacja skuteczności strony. Wykorzystanie strony jako niedrogiego narzędzia oceny nowych koncepcji i idei.

  1. Kategorie zasad konstrukcji I utrzymywania stron internetowych
•dostępność,
•zawartość merytoryczna,
•komunikatywność,
•nawigacja.
  1. SEO – Search Engine Optimalisation
Optymalizacja dla wyszukiwarek internetowych (ang. Search Engine Optimization; zwana także pozycjonowaniem) procesy zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i fraz kluczowych. Proces pozycjonowania jest elementem szeroko pojętego marketingu internetowego. Pozycjonowanie bazuje na znanych elementach działania algorytmu wyszukiwarek, ciągłym poznawaniu nowych, które algorytmy biorą pod uwagę przy rangowaniu strony oraz na weryfikowaniu już istniejących.

  1. KATEGORIA – Zawartość merytoryczna
    1. Dane o firmie
Cel istnienia firmy;
Slogan reklamowy;
Informacje ogólne – definicje podstawowych pojęć związanych z branżą;
Informacje o usługach/produktach oferowanych przez firmę;
Najważniejsze osoby w firmie + zdjęcia;
Historia firmy/produktów z nią związanych;
Dane finansowe;
Problematyka socjalna;
Sukcesy - opis efektów działań firmy, pochlebne cytaty, referencje, nagrody itp.;
Lista klientów.

    1. Dane kontaktowe
pełna nazwa firmy;
numer ulicy;
numer lokalu;
kod pocztowy;
miasto;
mapka dojazdu;
NIP;
e-mail;
numer telefonu;
numer faksu.
    1. Informacje o firmie

  1. KATEGORIA – komunikatywność
Interaktywność:
Czas załadowania strony głównej nie powinien przekraczać 2 s.;
Brak błędów połączeń podczas poruszania się po witrynie;
Biuro prasowe online powinno być dostępne ze strony głównej witryny;
Obecność linków w tym troska o ich aktualność, związek z branżą i zgodność zasobów z ich zapowiedzią;
Szybkość i jakość odpowiedzi na e-maila;
Poprawność i aktualność e-maila podanego na oficjalnej stronie firmy – możliwość skontaktowania się z firmą za jego pośrednictwem;
Obecność okna e-mail do tzw. szybkiej komunikacji.

Personalizacja:
Dostępność: newslettera, RSS-a, formularza rejestracyjnego;
Możliwość zalogowania się.

Aktualność danych:
Aktualność informacji na stronie;
Aktualność linków.

Zrozumiałość przekazu:
poprawność pod kątem ortograficznym, gramatycznym, stylistycznym;
Niestosowanie niewytłumaczonych skrótów i pojęć;
Dostępność witryny w przynajmniej dwóch językach.

Czytelność przekazu:
Obecność podtytułów, które powinny być:
oWyraźnie oznaczone;
oUmiejscowione w dobrym miejscu - podtytuł powinien otaczać swoją konstrukcją określoną zawartość;
oSzybkie w lekturze;
oZrozumiałe;
oDobrze definiujące określony tekst.
Linki:
oWyraźne oznaczenie linków przed kliknięciem;
oWyraźne oznaczenie linków po kliknięciu;
oZgodność linków z ich wcześniejszym tematycznym kliknięciem.
Obecność multimediów.

  1. KATEGORIA – nawigacja
Pasek nawigacji:
Obecność paska nawigacji na stronie głównej;
Obecność paska nawigacji na wszystkich stronnicach;
Pasek narzędzi jest wszędzie taki sam.
Obecność drzewa strony;
Dostępność strony głównej z dowolnego miejsca serwisu;
Dostępność przycisku wstecz z dowolnego miejsca serwisu;
Możliwość szybkiego drukowania;
Wewnętrzny szperacz witryny;
Obecność Identyfikatora witryny lub logo na każdej stronicy;
Jednolitość witryny pod kątem treści, formy i koloru;
Wyraźne oznaczenie przycisków do kliknięcia

  1. Ocena stron
W odniesieniu do mediów i innych branż
w Sieci, fundamentalna jest interaktywność Stron oraz możliwość dynamicznego łączenia (linki) informacji tekstowych z bogactwem uzupełnień w formie multimedialnych zasobów. Dzięki temu portale stają się żywe, często z aktualizowanymi na bieżąco danymi, z grafiką, dźwiękiem i multimedialnymi prezentacjami.

  1. Sprawdź swoją stronę
•Gdzie kierujesz wzrok w pierwszej kolejności?
•Czy potrafisz powiedzieć o czym jest strona?
•Czy ważne informacje są na pierwszej stronicy (bez przewijania)?
•Czy korzyści dla czytelnika są podkreślone?
•Czy są czytelne zachęty do akcji (druk, info.)?
•Czy kolory, znaki, animacje są rozpraszające?
•Czy czujesz osobisty związek ze stroną?
•Czy są linki do stron społecznościowych?

  1. Kategorie merytorycznych ocen stron
Technologia i funkcjonalność
•Technologia – wygląd i nawigacja
•Interaktywność
•Linki, wydarzenia i słowniki
•Dostępność
Zawartość
•Informacje finansowe
•Informacje o firmie
•Informacje adresowe

  1. Co ważne na stronie?
•Interaktywność jest interpretowana jako możliwość subskrypcji określonych informacji dostarczanych via mail, np. czas udzielenia odpowiedzi na zadane pytanie mailem.
•O wartości linków na stronie świadczą ich aktualność i związek z branżą oraz wskazywanie informacji o wydarzeniach dotyczących przedmiotu działalności firmy – właścicielki strony.
•Dostępność i zasobność słowników związanych z firmą,
•Kluczowe elementy: informacje adresowe, schemat organizacyjny, prezentacja władz i historia firmy.
•Dodatkowe informacje o firmie: sprawy socjalne oraz ogłoszenia o wolnych miejscach pracy i możliwości zdalnego składania CV.
•W ramach finansowych informacji o firmie - dostępność online: ostatniego raportu finansowego (w formatach PDF/HTML), archiwum poprzednich raportów, kalendarza firmowych zdarzeń, notowania akcji, wielkości obrotów akcjami firmy, polityki, historii dywidend, informacji o właścicielach i innych istotnych danych finansowych.

  1. Liczniki – samoocena konstrukcji i atrakcyjności strony
•szybki dostęp do statystyk strony – 24/7/365, czyli w skali dnia, tygodnia i roku,
•możliwość oceny:
–jakiej przeglądarki używa wizytujący stronę,
–rozdzielczość ekranu odwiedzającego,
–system operacyjny odwiedzającego,
–które strony polecają ocenianą witrynę,
–który szperacz wskazał wizytującemu stronę,
–jakich słów kluczowych używał odwiedzający w tym szperaczu,
–kilka różnych stylów licznika, łącznie z niewidocznym dla internautów,
•mailowe komunikaty (alerty).

  1. Pojęcia ilościowych ocen
•Wywołanie/hit – wczytanie dowolnego elementu z serwera WWW. Np. załadowanie strony z 3 plikami graficznymi = 4 hity
•Strona WWW – wywołanie dokumentu o rozszerzeniu HTM, HTML, TXT lub skryptu, np. PHP.
•Sesja – ciąg plików (kolejnych wywołań) pobranych przez jednego użytkownika z konkretnego adresu WWW
•Wejście – dokument, od którego użytkownik zaczyna przeglądanie strony.
•Transfer – ilość danych (w KB), które zostały pobrane z serwera.

  1. Rafinacja zasobów sieciowych
Informacyjne źródło zasobów sieciowych – biały wywiad 2.0 Big data – baza rafinacji
• Big Data to zasoby w postaci cyfrowej, których istotną część tworzą wszelkie informacje dostępne w internecie:
- posty, blogi, strony, fora, profesjonalne wydawnictwa (dzienniki, periodyki, książki i inne podobne wydawnictwa, np. – 235 terabajtów danych zebranych w US Library of Congress do IV.2011).
• Zbiór 100 milionów wiadomości agencyjnych z całego świata, który obejmuje pół wieku ludzkiej cywilizacji, cyfrowa biblioteka 4% wszystkich książek wydrukowanych w okresie sześciu wieków, zasoby branżowe, np. Służba zdrowia.
• Big data są także tworzone przez urządzenia komórki (5 mld w 2010 r.), komputery, cyfrowe kamery, aparaty fotograficzne, czytniki RFID, samochody, domy, inteligentne mierniki np. poboru energii elektrycznej i GPSy.

Inteligentne liczniki prądu – Smart Meter
• Źródło informacji o prywatnych zachowaniach użytkowników prądu:
– Posiłki
– Sen
– Toaleta
– Pranie
– Typ TV (skok poboru mocy)

Rafinacja informacji
• Jest peryskopem pomiędzy dwoma poziomami informacji: poziomu bazowego i poziomu wyniku rafinacji.
• Umożliwia dostrzeganie informacji z otoczenia/poziomu bazowych informacji (czyste informacje z WWW) tych, które są na poziomie informacji będących wynikiem rafinacji.

Culturomics
• Dwa istniejące filary rafinacji: Culturomics i Curation.
• Culturomics obejmuje aktywności związane z eksploracją szerokiego spektrum kulturowych trendów poprzez komputerową analizę cyfrowych archiwów książek. Stwarza nowe możliwości wglądu w funkcjonowanie społeczeństwa
113 „curation"
• dopasowywanie wyników wyszukiwania w internecie do preferencji użytkownika.
• Curatorem jest ktoś kto ciągle szuka, grupuje, organizuje i udostępnia najlepszą, najbardziej odpowiednie treści dla specyficznych potrzeb online.
Przykład curation
• Axiom – 500 milionów konsumentów, 1500 kategorii informacji o każdym
• Każdy umieszczany jest w jednej z 70 socjoekonomicznych kategorii Consumer Data, but Not for Consumers, By NATASHA SINGER, Published: July 21, 2012, NYT. Rafinacja - zasięg
• Analizując miliardy postów, blogów i artykułów dostępnych online możliwe jest uzyskanie nowych informacji o społecznych fenomenach, państwach, organizacjach i osobach (relacje, migracje itp.)
• Wynik: ocena emocji relacji: sympatia, antypatia, poczucie szczęścia, optymizm, pesymizm, strach.

Narzędzia rafinacji
• Wyszukiwarki
• Dane behawioralne (zachowania w Sieci)
• Personalizacja (np. kryteria opisujących osobę decydują o wynikach wyszukiwania)
• Zaawansowane narzędzia, np. ocena sentymentu (Attentio). Diagnoza emocjonalnych
odczuć adresata przekazu
• Tłumaczenie emocjonalnych odczuć na liczby.
• Analityczne narzędzia mierzące sentyment użytkownika Sieci (sentiment analysis). Do określonych zdarzeń, informacji, marek towarowych oraz towarów, a nawet wskazywania dni, w których Internauci są najbardziej podatni na określone przekazy informacyjne.

Wyniki rafinacji – przewidywanie przyszłości
• Zachowania giełd, sprzedaż książek, wideo
• Choroby
• Zjawiska polityczne i społeczne
• Konflikty społeczne
Prognozowanie z informacji sieciowych
• Ludzie szukając dzisiaj wskazują co będą robili w przyszłości.
• Np. bezrobocie, sprzedaż samochodów, choroby.
• Badania potwierdziły prognozy sprzedaży filmów i pozycję muzyki na liście przebojów.
• Realne przewidywanie kolektywnych zachowań w zakresie ekonomii, kultury i polityki.

Minerva – inicjatywa Pentagonu
• Poszukiwania w celu zdefiniowania i rozwoju podstawowej wiedzy o obecnych i przyszłych konfliktach w kierunku lepszego zrozumienia politycznych trajektorii w kluczowych regionach świata.
• Doskonalenie możliwości DoD w celu rozwoju nauk społecznych, problemów zagranicznych i interdyscyplinarnych studiów.
Psychohistoria Issac Asimov
• Kombinacja matematyki i psychologii do przewidywania przyszłości.
• Obecnie bazą „big data”: RFID, POSy,Twitter, Facebook, blogi, Wiki, lokalizacja komórek, ruch w Sieci, zapytania, dane z rynków finansowych, webcamy z ulic. Efekt – przewidywanie
politycznych kryzysów, rewolucji i innych form społecznej i ekonomicznej niestabilności, epidemii.
Brandometr
• Brandometr pozwala na bieżąco śledzić nowe wypowiedzi, jakie pojawiły się w Internecie na temat danej marki.
• Umożliwia łatwe odnajdowanie trwających dyskusji, przysłuchiwanie się im oraz włączanie się do nich.
Cyfrowy testament
• Facebook – kilka milionów kont osób nieżyjących. W tym roku przybędzie kolejne 1,5
mln kont należących do zmarłych.
• Usługa polegająca na spisaniu cyfrowego testamentu. Umożliwia to bliskim zmarłych użytkowników odzyskanie ich kont i zarządzanie nimi.
• Po zmarłych mogły pozostać pieniądze w PayPalu, zdjęcia w sieciowych galeriach,
życiorysy i CV w serwisach rekrutacyjnych, poczta itp.
Przykłady miejsc i form testamentów
• Nagrania wideo i audio (legacylocker, greatgoodbye)
• Zamieszczanie komunikatów na blogu (mywebwill)
• Konieczność potwierdzenia przez dwie osoby lub cykliczne potwierdzanie życia.
• Testament sieciowy bywa łączony z tradycyjnym.

  1. Ocena przez statystyki stron internetowych
•49 % wszystkich odwiedzin na witrynach pochodzi od fizycznych osób.
•20 % całego ruchu w Internecie generują mechanizmy katalogujące witryny w wyszukiwarkach.
•31% to „złośliwy„ ruch, czyli skrypty i spamboty.
•5% sztucznego ruchu generowane jest przez narzędzia hakerskie.
•5% - „zbieracze", kradną treści umieszczane w witrynach.
•2% boty generujące spamowe komentarze i wpisy w których umieszczane są reklamy na forach.
•19 % - pospolity spyware.

  1. Jak sprawdzić statystyki strony
Teqpad to narzędzie, pozwalające uzyskać dostęp do statystyk każdej witryny dostępnej w Internecie, a także wielu innych, użytecznych informacji dotyczących danego serwisu.
Sprawdzenie strony WWW w Teqpad dostarczy nam takich informacji jak: dzienna ilość wizyt, odsłon, użytkowników, udział witryny w globalnym ruchu, a nawet jej przybliżoną wartość oraz dzienne zarobki. Ponadto znajdziemy tam ilość linków prowadzących do owej strony, mierzoną przez kilka wyszukiwarek, obecność serwisu w popularnych katalogach, a także jej pozycję w różnego rodzaju rankingach.
Dodatkowe dane, do których zyskujemy dostęp to szczegółowe informacje na temat serwera oraz domeny, tytuł, opis i screen strony głównej, a także datę ostatniej wizyty robota Google.

  1. Najpopularniejsze statystyki
    1. Opentracker
*Płatne, ale jest 4-tygodniowy okres próbny.
*Statystki o naprawdę dużych możliwościach. Przyjemnie zaprojektowane.
*Koszt to 16,99 USD miesięcznie lub 169$ USD rocznie.
*Jest to cena najczęściej wykraczająca poza budżet zwykłego webmastera, ale niewygórowana dla internetowego biznesu średniej wielkości.
*Choć jest to produkt amerykański, udostępnia wiele wersji językowych interfejsu użytkownika, w tym polską.

    1. Stat24
*Statystyki rodem z Polski, dostępne zarówno w wersji darmowej, jak i profesjonalna wersja płatna.
*Obsługiwane przez zewnętrzny serwer.
*Cena tej ostatniej waha się od 600 zł do 3500 zł rocznie, w zależności od liczby odsłon serwisu.
*Warunkiem korzystania z w pełni funkcjonalnej, bezpłatnej wersji statystyk statStandard jest zamieszczenie logotypu na stronie głównej monitorowanej witryny oraz wyrażenie zgody na emisję ankiet badawczych i reklam komercyjnych na łamach swojej witryny.

*Ranking stat24 to narzędzie służące zarówno witrynom zainteresowanym bezpłatną promocją w internecie, jak również pełniące funkcję wiarygodnego źródła informacji dla internautów poszukujących tematycznych serwisów.
*Jest to także miejsce, w którym istnieje możliwość zaprezentowania swojej witryny reklamodawcom.

    1. AWStats
*Darmowy program instalowany na serwerze użytkownika. Statystyki Awstats są bardzo często domyślnie dostępne na serwerach WWW.


  1. Inne źródła statystyki

  1. Wartość strony
•Websiteoutlook jest miejscem/narzędziem szacunkowej oceny wartości strony.
•Użyteczne w chwili sprzedaży/kupna strony.

  1. AdWords i AdSense
AdSense
•Opłacanie przez szperacze twórców stron, włączając blogerów.
•Twórca dostaje wynagrodzenie proporcjonalne do liczby reklam ukazujących się w otoczeniu linku jego strony, który wyświetlany jest na SERP. Reklamy powiązane są kontekstualnie z treścią strony jej twórcy.

AdWords
•Reklamy są wyświetlane - obok wyników wyszukiwania wybranych słów kluczowych -użytkownikom wyszukującym te słowa w Google. To znaczy, że reklama trafia do osób już nią zainteresowanych.
•Użytkownicy mogą kliknąć w reklamę i dokonać zakupu albo dowiedzieć się więcej o firmie.
•50% wpływów pochodzi z tego typu reklam.

  1. Lista narzędzi do oceny stron
    1. Google Analitics
Slajdy od 125 z „Usługi” – kilka ich jest, dlatego nie wrzucam
•Darmowy system udostępniony przez Google
•Raporty dla dni, tygodni, miesięcy oraz lat
•Podstawowe parametry: liczba odwiedzin, liczba odsłon, średni czas spędzony na stronie oraz współczynnik odrzuceń (udział wizyt, które składały się tylko z jednej odsłony).
    1. Browswershots.org
Browsershots.org – wygląd WWW w różnych przeglądarkach np. IE, Android, Firefox; 60 zrzutów. Bada także, jak działają skrypty Java i Flash .

    1. Raven
Raven – jak wypada moje WWW na tle konkurencji; monitoring sieci; miesiąc próbny za darmo; raventools.com .

    1. Web Site Optimization
czas ładowania i reakcji WWW; standardy: 5-8 sek. ładowanie strony; reakcja na działanie użytkownika 0,5 sek;

    1. Clean CSS

  1. Do oceny ½
Poza konkursem (wspomniany wcześniej): W3C – aplikacja do kontrolowania skryptu CSS i HTML . Bada txt kodu czy jest zgodny ze standardem. Działa podobnie do narzędzia Raven

  1. Page Rank
metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej, oznaczającej ich jakość.
Algorytm PageRank jest wykorzystywany przez popularną wyszukiwarkę internetową Google. Został opracowany przez założycieli firmy Google Larry'ego Page'a i Sergeya Brina podczas ich studiów na Uniwersytecie Stanforda w 1998 roku. Nazwa algorytmu pochodzi nie od angielskiego wyrazu określającego stronę (ang. page), lecz od nazwiska twórcy, czyli Larry'ego Page'a. Wynik PageRank pokazywany jest jako jedna z opcji dostępnych w pasku narzędziowym Google, sprawdzać można go również w wielu serwisach niezależnych.
Nazwa "PageRank" jest znakiem handlowym Google, a sam algorytm został 9 stycznia 1998 opatentowany w Stanach Zjednoczonych (nr patentu US6285999). Patent należy jednak do Uniwersytetu Stanforda, a nie firmy Google. Uzyskała ona od Uniwersytetu Stanforda prawa licencyjne na wyłączność, a w zamian za zezwolenie na korzystanie z patentu uniwersytet otrzymał 1,8 miliona akcji Google. Akcje zostały sprzedane w 2005 za 336 milionów dolarów.

  1. Programy do zbierania informacji ze stron www

  1. Optymalizacja stron dla urządzeń mobilnych

  1. Dostosowanie maili do komórek

  1. Luki w zabezpieczeniach ma 86% stron www

  1. Przeglądarki
•Przeglądarki - tak zwane browsery - są programami, które umożliwiają wędrówkę po Sieci.
•Umożliwiają obsługę komputera podczas wykonywania wszystkich operacji niezbędnych do korzystania z zasobów Sieci.
•Czynności związane z poprawnym odczytaniem treści wybranej Strony wykonuje przeglądarka. Informacje zapisane w różnych formatach, z użyciem różnych komponentów.
•Jest wzbogacana o tak zwane wtyczki – programy uzupełniające funkcjonalność przeglądarki.

  1. Warstwy przeglądarki
•interfejs, za pomocą którego użytkownik wykonuje rozmaite polecenia,
•wewnętrzny silnik wyświetlający/renderujący zawartość strony na monitorze;
–Microsoft rozwija silnik Trident
–Opera pracuje nad silnikiem Presto
–Mozilla wykorzystuje tworzony przez społeczność silnik Gecko (ang. 'gekon'),
–Chrome (podobnie jak Safari Apple'a) korzysta z tworzonego przez społeczność silnika Webkit,
–i kilkanaście innych.

  1. Przeglądarki – szybkość, zabezpieczenia
•Szybkość: 1. Chrome, 2. Firefox, 3. IE9
•Zabezpieczenia: jw.
•Zgodność z HTML5: jw.

  1. Która z dodatkowych funkcji przeglądarek internetowych jest dla ciebie najważniejsza

  1. Luki w przeglądarkach
  1. Tryb anonimowy
•Wykorzystanie innych serwerów proxy,
–by zgubić ślad (test: dnsstuff.com),
–by dynamicznie zmieniać: MultiProxy
–Oferty: www.freeproxy.ru, anonymizer.com, safersurf.com, tor.eff.org
•Wykorzystanie WLAN, najlepiej anonimowo obok firmy, lub przez „zdrapkę” w hotspocie.
•Anonymous Surfing ukrywa adres IP –wyklucza śledzenie stron, które są oglądane.
•Przekierowanie ruchu przez serwer Zone.
•Serwery uzbrojone w 128 bitowy SSL.
•Torbark – przeglądarka na bazie Firefoxa. Zapewnia anonimowość w systemie TOR (torproject.org), sieć serwerów ukrywających tożsamość w Sieci.
•The Torpark 1.5.0.7 (oparte na Firefoksie); IE 8 beta2; Google Chrome; Stealther 1.0.6 (dodatek do Firefox 3.0).
•Programy anonimizujące, np.: Java Anon Proxy (JAP); The Onion Router (TOR)
•Do ukrywania tożsamości stosuje się kaskadę mieszanych proxy, składającą się z przynajmniej trzech serwerów.
www.bugmeont.com
•„Trasowanie cebulowe” – tor.eff.org/index.html.pl
•Przez serwery proxy - www.publicproxyservers.com


  1. Przeglądarki offlineowe
•„ekonomiczne czytanie stron offline”.
•Zasada ich działania polega na sprawnym pobieraniu wskazanych zasobów sieciowych, zapisywaniu ich na dysku, a następnie stwarzaniu możliwości ich przeglądania lokalnie na dysku komputera, także w czasie, gdy internauta nie ma podłączonego komputera do Internetu.
•Podstawowe funkcje przeglądarek offline to: automatyczna aktualizacja wcześniej pobranych stron, możliwość ich edycji i kompresji, kontynuacja realizacji przerwanych zadań oraz możliwość wyboru rodzaju i maksymalnego rozmiaru ściąganego pliku, a także obsługa HTTPS i FTP, szperacz wewnętrzny, możliwość określania „głębokości ściągania” i parametryzowania filtrów na „nie”.

  1. Akceleratory
•Inaczej menedżery pobierania.
•Początkowo umożliwiały kontynuowanie pobierania po przerwaniu transmisji. Następnie stworzono wielowątkową technikę pobierania. Przyspieszenie nawet o 100 razy, zależnie od liczby fragmentów równocześnie ściąganych.
•Pasmo barierą nie do przebicia.
Przykłady:
•DownThemAll!
•Download Accelerator Plus 7.4 9.0
•NetAnts1.25 8.8
•GetRight 5.2d 8.7
•Mass Downloader 3.1 8.7
FlashGet 1.65 8.4
•LeechGet 2007, Gigaget

  1. Pobieranie standardowe, a pobieranie z segmentacją


  1. Teleportery
•funkcja ściągania na komputer internauty wskazanych stron w całości lub w części.
•Dzięki odpowiednim narzędziom programowym możliwe jest pobranie wyróżnionych/wszystkich zasobów z lokalizacji wskazanej przez internautę.
•skopiowane zasoby mają identyczną jak oryginał strukturę i są dostępne na lokalnym komputerze
•możliwe jest wybieranie pewnych tylko rodzajów pobieranych multimediów, a nawet decydowanie o „głębokości” kopiowania strony.

  1. Teleporter – programy
•Dla początkujących: WinHTTrack, Offline Commander, Offline Explorer Pro, Advanced Site Crawler 2003,
•Dla średnio zaawansowanych: BlackWidow, WebWhacker, WebZip, WebCopier, WebStripper.

Web 2.0 – media społecznościowe Web 2.0
•Obywatele rozwiniętych państw spędzają jedną trzecią wolnego czasu uczestnicząc w internetowych grupach społecznościowych
•regularnie kontaktują się z szesnastoma osobami, które spotkali w wirtualnym świecie.
•Sieć stała się dla nich integralną częścią codziennego życia, w postaci poczty elektronicznej, e-komercji, forów, blogów lub wirtualnych miejsc spotkań (Facebook, Grono, Nasza Klasa, Second Live)
•Nowa faza rozwoju WWW,
•Interakcja z wirtualnym światem – osobami, firmami,
•Wykorzystanie nowych technologii, od blogów, przez social networking do AJAXu,
•Wynik ewolucji jakości i intuicyjności stron
•Narzędzia i kanały do komercjalizacji tego typu stron
•Nowe wyzwanie – miary relacji zachodzących w WEB 2.0, głównie odnośnie biznesu
  1. Media społecznościowe

  1. Popularne platformy społecznościowe
•Świat: Facebook
•U.S. i Kanada: MySpace,Twitter, LinkedIn, Facebook, Google+, Pinterest
•Europa: MySpace, Twitter, Hi5, V Kontakte
•Ameryka Płd.: Hi5, Orkut, Tagged
•Azja: QQ, Friendster, Xiaonei, Orkut, Mixi, Hi5
•Śr. Wschód i Afryka: Maktoob, Hi5

  1. W jakim stopniu technologie zostały przyjęte przez klientów
•Jeśli tworzą user-generated content i są lojalni – stwórz warunki do publikacji
•Czy są wśród klientów eksperci – jeśli tak zaproś do forum i zachęć do Wiki
•Jakie technologie wykorzystuje konkurencja?
•Elastyczność/kompetencja klientów wobec wprowadzania nowych technologii

  1. Zdobywanie klientów
•Niektóre technologie Web 2.0, takie jak RSS feeds, podcast, social networks i porównywarki cen stwarzają nowe warunki pozyskiwania nowych klientów i promocji firmy
•Np. opinie na Facebook, Gronie, filmy w YouTube, pozycja w del.icio.us
•Spełniać oczekiwania nowych technologii - Rich internet applications (RIAs) np. wideo, AJAX i Flash oraz telefonów komórkowych (np. m.grono.net w komórkach)

  1. Personalizacja
•Banalne stwierdzenie co Internauci lubią, nie lubią, co jest ich pasją życiową
•By zrozumieć klienta trzeba mieć dane o każdej interakcji.
•Lifetime Individual Visitor Experience (LIVE) Profile™ - umożliwia tworzenie obrazu indywidualnego użytkownika
•Efekt – personalizacja
•MySpace pages – pierwsza faza programu: “interest-based targeting” - algorytmy kategoryzujące członków zależnie od ich zainteresowań, np. sport, moda, finanse, gry komputerowe, auta i zdrowie.
•Druga faza: setki subkategorii, np. fani sportu są podzieleni na grupy - koszykówka, piłka nożna w szkołach, narty. Filmowi entuzjaści: komedie, dramaty, filmy niezależne, a także wg nazwisk aktorów. Także: płeć, wiek, przyjaciele
Blogging
  1. Blogging
–Blog jest to angielski neologizm: weblog (Web – Sieć WWW; log – dziennik, rejestr). Określany jest także jako webowe pismo (web journal), „blogsphere”.
–Zazwyczaj owe autorskie zapiski ułożone są w odwrotnym porządku chronologicznym.
–Skala tego zjawiska oraz doskonalenie technologii tworzenia i aktualizacji blogów często traktowane są jako nowy etap rozwoju Sieci nazywany „Web 2.0” lub „Internet 2.0”
•stał się nieformalnym medium wymiany informacji, także kształtowania poglądów, opinii na wybrane tematy lub o dostępnych dla określonego środowiska usługach i produktach, a nawet promocji.
•Blog jest to neologizm angielskiego słowa: weblog (Web – Sieć WWW; log – dziennik, rejestr); określany jest także jako webowe pismo (web journal), „blogsphere”.
•blogsfera - wszelkie zjawiska związane z blogingiem. Zazwyczaj owe autorskie zapiski są ułożone w odwrotnym porządku chronologicznym.
•Skala tego zjawiska oraz doskonalenie technologii tworzenia i aktualizacji blogów często są traktowane jako nowy etap rozwoju Sieci nazywany „Web 2.0” lub „Internet 2.0”
•Na etap ten składają się także takie formy operowania informacją jak np. podcasty, RSSy. Tę nową fazę WWW zainicjował społeczny fenomen – „społeczne media” (social media) - jakim stał się udział indywidualnych osób w samodzielnym tworzeniu i dystrybucji produktów informacyjnych za pośrednictwem Internetu.

  1. Klasyfikacja blogów
–osobiste (pierwotna forma blogów przypominająca dzienniki i pamiętniki)
–zawodowe (stanowiące przejaw działalności zawodowej lub naukowej)
–opisujące świat (odpowiednik publicystyki starych mediów)
–relacyjne (ich celem jest nawiązywanie i utrzymywanie relacji międzyludzkich)
–reklamowe (tak zwane fake blogs, czyli sztuczne blogi mające za zadanie promować towar)
–splogi (jeden z przejawów działalności automatów spamujących).

  1. Słowniczek Twittera

  1. RSS z blogów
•RSS umożliwia agregację wybranych informacji z różnych blogów
•Agregatory blogów: Topix.net, Bloglines, Yahoo's blog aggregator lub desktopowe narzędzie FeedDemon do śledzenia aktualizacji ulubionych blogów.

  1. Blog w firmie
•Blog może łączyć pracowników, konsumentów, partnerów i dostarczycieli (Radio Userland).
•Blog widziany staje się jako „sieciowa gazeta” (web newspaper).
•Np. do dzielenia się wiadomościami na temat pracy nad wspólnym projektem.
•Blog, krok po IM w firmach

  1. splog’iem” lub „spamblogi”
•polega na manipulowaniu bloggingiem w celu osiągnięcia zysku.
•W splogach wykorzystywane są słowa – klucze (z blogów) w celu uzyskania wyższej pozycji na liście rezultatów wyszukiwań szperaczy (SERP).
•Zawierają linki do promowanych stron
•Często generowane automatycznie (tysiące blogów tworzy jedna osoba/instytucja) np. Programem Blue Diamond’a – Blog Mass Installer, setki komentarzy do „ziołowej viagry”
•90% nowych blogów - splogi
•Efektem jest zwiększona skuteczność reklamy i jednoczesne niszczenie reputacji autorów najlepszych blogów.

  1. Największe społeczności
•Chiny – Tancent (890 mln – 2009)
•Brazylia – Orkut (2004)
•Hi5 – 25 krajów, 23 języki.
•Europa: Netlog.com i Bebo
•Najwięksi: MySpace i Facebook

  1. Crowd sourcing – mądrość tłumu
•Współpraca wielu osób przy tworzeniu pomysłów związanych ze wspólnym celem
•Skalowalność: grupa, firma, państwo, świat
Crowdsourcing – mądrość tłumu inaczej
•Indywidualnie chcemy sterować tym co tworzymy, jeśli się nie udaje, zmieniamy przedmiot/obiekt zainteresowania.
•Jako grupa sterujemy przez konsumpcję. Większe/liczniejsze zainteresowanie produktem/usługą – wyższa ocena „mądrości tłumu”. Próba kontroli/manipulacji takiego sterowania, czyni ową mądrość mniej wartościową
•...on the" individual" level, we want to control the things that we create (and, that if we can't, we'll go elsewhere). On the "collective" level, we "create as we consume" collectively, and that the "crowd" itself owns the "wisdom of the crowd". If someone tries to "own" this crowd-wisdom generated from consumption, they make it less valuable by trying to disconnect it from larger networks to control it.

  1. Narzędzia do badania zawartości w mediach społecznościowych
    1. Seer – Social Radar
•Wykorzystuje do analizy treści pochodzące z blogów, mikroblogów, komentarzy, forów, portali informacyjnych, a także stron z treściami wideo i zdjęciami.
•Pokazuje relacje między słowami kluczowymi na określonych stronach internetowych a działaniami, jakie one wywołują
•Narzędzie to jest dostępne w językach: chińskim, duńskim, niderlandzkim, angielskim, francuskim, hiszpańskim, niemieckim, włoskim, japońskim, koreańskim, polskim, portugalskim, rosyjskim, szwedzkim, tajskim oraz tureckim.

    1. Brandometr
•monitoruje treści zarówno portali internetowych, jak i blogów, mikroblogów (w tym Twitter, Blip, Flaker, Pinger), a także forów internetowych, grup dyskusyjnych, serwisów społecznościowych.
•M.in. pozwala na wyszukanie publikacji najbardziej istotnych dla badanych słów kluczowych (publikacje o największym potencjale do rozprzestrzeniania się, z którymi może się zapoznać największa liczba użytkowników). Interesującą funkcjonalnością jest śledzenie autorów generujących treści. Dzięki niej możliwe jest odnalezienie liderów opinii, którzy często wypowiadają się na badany temat lub odnoszą się do interesujących badacza marek.

    1. Attentio Brand Dashboard
*Śledzenie i analizowanie treści internetowych dotyczących marek i produktów.
*Treści te są śledzone i analizowane w czasie rzeczywistym.
*Monitorowanie informacji pochodzących z głównych portali informacyjnych i opiniotwórczych w danym kraju, portali społecznościowych, forów, blogów, mikroblogów. Ponadto jest możliwe dodawanie nowych źródeł.

  1. Narzędzia i źródła informacji do analizowania treści tworzonych przez społeczności
•Amplify
•Attentio
•Biz360
•Brandimensions
•Brandometr
•BrandWatch
•Buzz Metrics (Nielsen)
•BuzzLogic
•Cision
•CollectiveIntellect
•CyberAlert
•DNA
•Dow Jones
•Integrasco
•Kaava
•Magpie
•Millward Brown
•Newspoint
•Onalytica
•Radian6
•Scoutlabs
•Seer
•TNS cymfony
•Unruly Media (Video Tracking)
•Visible Technologies
•Vocus
•Wavemetrix

  1. Komórki – nowy wymiar Social Networkingu


Komunikacja sieciowa
  1. Sieciowa komunikacja
proces wymiany przetwarzanych informacji. Odnosi się do podmiotów biorących udział w akcie komunikacji, przy czym przynajmniej jednym z nich jest Sieć. Jest tu mowa o tzw. środowisku zewnętrznym – nadbudowie nad inżynierską interpretacją komunikacji cyfrowej, nad środowiskiem OSI. (Open System Interconnection)

wykorzystuje Sieć z jej potencjałem wymiany informacji, magazynowania jej oraz korzystania z mocy obliczeniowej tworzących sieć komputerów.
Komunikacja sieciowa obejmuje sobą także bezpośredni kontakt człowieka z komputerem. Jest to przedmiotem dynamicznie rozwijającej się dyscypliny naukowej – CMC.

  1. (7 warstw komunikacyjnych)
???

  1. Komunikatory
•W 1996 roku powstała podobna do IRC usługa zdalnej łączności – ICQ (I Seek You).
•Jest to darmowe oprogramowanie umożliwiające zainteresowanym „pisaną rozmowę” za pośrednictwem Internetu. Po zainstalowaniu oprogramowania można stworzyć listę osób, które dysponują podobnym oprogramowaniem. W chwili włączenia komputera z dostępem do Sieci możliwa jest wymiana informacji między internautą a osobami ze wspomnianej listy.
•ICQ jest protoplastą współczesnych komunikatorów – IM. Komunikator daje możliwość komunikowania się tylko z wybranymi osobami, w czatach z losowo połączonymi osobami.
  • IM IM jest to rodzaj usługi (komunikator) dostępnej w Internecie (niemal identycznej do ICQ), która za pomocą specjalnego programu (zazwyczaj bezpłatnego) umożliwia stworzenie prywatnego połączenia między dwoma lub większą liczbą wybranych osób w celu wymiany informacji (tekst, dźwięk, obraz, wideo i załączniki). Obecnie jest to najszybciej rozwijające się medium komunikacyjne na świecie.


  1. Telefon przez internet – VoIP (Voice over IP, IP telephony)
•Jest to technologia, która umożliwia wykorzystywanie Internetu jako medium łączności do rozmów telefonicznych za pośrednictwem transmisji pakietów danych będących cyfrową reprezentacją kolejnych fragmentów rozmowy.
•Zważywszy na elastyczność wykorzystanych do tego celu narzędzi, można jednocześnie prowadzić rozmowy między wieloma użytkownikami (telekonferencje) przebywającymi nawet na różnych kontynentach.
•Ograniczeniem, coraz mniej odczuwalnym, jest cyfrowy zapis rozmowy, którego transmisja wymaga stosunkowo szerokiego pasma dostępu do Internetu (w jednej chwili muszą być przesyłane duże liczby bajtów cyfrowego zapisu mowy).
VoIP – Voice over IP
•Oprogramowanie umożliwiające wykorzystanie Internetu do rozmów telefonicznych.
•Najpopularniejszy: Skype, potem: Tlenofon, Nagłos, Spik (Wp), Stefan (Interia),
•Inne: PhoneFree 7.1; Buddy Phone 4.0; Tlen 3.71; ICQ 2002a; Gadu-Gadu 5.0; MSN Messenger 5.5.

  1. Bramki VoIP
•Telefony USB, rozmowa telefoniczna odbywa się za pośrednictwem urządzenia współpracującego z pecetem (np. easycall). Urządzenie symuluje tradycyjny telefon.
•Urządzenia współpracujące z programami VoIP (np. Skype), które autonomicznie dokonują połączenia telefonicznego (bez komputera). Np. fritzbox.

  1. Komunikacja pośrednia – asynochroniczna
•Uniezależnienie wymiany informacji od czasu i przestrzeni oraz dostępność bardziej złożonych funkcji sprzężenia zwrotnego podmiotów uczestniczących w akcie komunikacji.
•Informacje/komunikaty są wcześniej zgromadzone w pamięciach maszyn. Sieć pozostaje pasywna wobec tych informacji. Nie wprowadza do nich żadnych zmian.
Np. blogi, fora/listy dyskusyjne, usnety, korespondencja elektroniczna, gazety elektroniczne, audycje (na żądanie) radiowe i telewizyjne.
•Internet pełni funkcje magazynu informacji i narzędzia do jej dystrybucji.
•Gromadzone w Sieci informacje są udostępniane po zauważalnym, ale praktycznie nieograniczonym czasie.
•Odbiorca przestaje być tylko pasywnym odbiorcą i inicjatorem aktu komunikacji, staje się aktywny w doborze, także ocenie (świadomej, lub pozyskiwanej bez jego wiedzy) odbieranych z Sieci informacji.
•Rosnąca część zasobów Sieci wzbogacana jest przez atrybuty wskazujące na ich umowną wartość, która jest wynikiem ocen uzyskiwanych od użytkowników Sieci.

  1. Procedury odbioru poczty
•Protokołem POP3 (Post Office Protocol) – poczta przychodzi na skrzynkę pocztową na serwerze operatora poczty. Odbiór pobierasz wiadomości programem pocztowym na twardy dysk swojego komputera. Z reguły pobrane wiadomości są automatycznie usuwane z serwera.
•Mniej znany protokół IMAP (Internet Message Access Protocol) pozwala zarządzać wiadomościami na serwerze w kilku uporządkowanych hierarchicznie skrzynkach pocztowych. Wiadomości pozostają na serwerze operatora.

  1. Zalety płatnych skrzynek
• Niezawodność,
• brak e-maili reklamowych,
• brak reklam dołączanych do listów,
• duża pojemność skrzynki,
• mniejsze ograniczenie objętości wysyłanego listu lub brak limitu
• możliwość przetestowania konta,
• ochrona antywirusowa,
• filtry antyspamowe,
• powiadamianie SMS-em o nowej poczcie
• dostęp do pomocy technicznej,
• bezpieczeństwo danych osobowych,
• profesjonalny wygląd adresu e-mail,
• możliwość zakładania aliasów.

  1. Komercyjne usługi pocztowe
•Bez reklam, większa stabilność, możliwość samodzielnego zdefiniowania aliasów, przekierowania poczty, autoryzacja SMTP (tzw. antyoszust). Zazwyczaj nie obowiązują ograniczenia liczby aliasów czy sygnatur i można wysyłać o wiele większe załączniki do e-maili.
•Jedno konto e-mail na komercyjnym serwerze kosztuje ok. 50 złotych rocznie. np. Homapl, NetArt (Nazwa.pl), AZ.pl, 1&1 Internet, OVH.pl i setki niniejszych operatorów.

  1. Mail – zagrożenia
•Łatwość odczytania poczty,
•brak klawisza „cofnij operację”,
•„reply all” (odpowiedz wszystkim) oraz „cc” (do wiadomości), które najlepiej wyeliminować,
•wykładniczy wzrost liczby spamu, w tym niechcianych reklam, oraz dołączanie do maili wirusów.

  1. Electronic communication tools can demand constant switching, which contributes to a feeling of “discontinuity” in the workpleace. On the other hand, people sometimes deliberately introduce…

  1. Społeczna izolacja i nowe technologie grupy społecznościowe
•Amerykanie mają mniej ścisłe związki z sąsiadami i organizacjami społecznymi.
•Są bliższe związki w wirtualnym świecie, ale w bardziej podzielonych grupach społecznych.
•Sposoby kontaktów:
–Face-to-face 210/365 dni
–Komórki 195/rok
–IM 125
–Listy papierowe/kartki - 8
•Uczestnicy grup w 30% mniej chętnie poznają sąsiadów.
•W 40% mniej polegają na pomocy sąsiadów.
•Przeciętny internauta ma trzech bliskich członków grup w Sieci.

  1. P2P
•Początkowo pobieranie plików z serwerów FTP,
•Pierwszy P2P – Napster,
•Obecnie najpopularniejsze: BitTorrent, eDonkey (ed2k) i Gnutella.
•Architektura sieciowa wykorzystująca bezpośrednią komunikację osób.
•Współdzielenie zasobów komputerowych i usług przez bezpośrednią ich wymianę.
•Równorzędna komunikacja komputerów przez sieć typu „każdy z każdym”.
•Współczesny P2P – 1999 rok – NAPSTER, do wymiany mp3, dzieło nastolatka: Shawna Fanninga.
•Jednym z najpopularniejszych sposobów wymiany informacji w wirtualnym świecie była i jest architektura sieciowa lub inaczej P2P.
•Umożliwia ona komunikację osób, współdzielenie zasobów komputerowych i usług poprzez bezpośrednią ich wymianę. Jest to równorzędna komunikacja komputerów przez sieć typu „każdy z każdym”.
•Napster – dzieło nastolatka Shawna Fanninga. Napster pełnił rolę pośrednika, „biura kontaktowego” w wymianie informacji. Żaden z plików przez niego oferowanych nie był umieszczony na komputerze Napstera (Napster tylko pośredniczył – miał informacje o lokalizacji zbiorów). Pliki były umieszczone na współpracujących z Napsterem komputerach, najczęściej prywatnych osób.
Obecnie najpopularniejsze:
•eDonkey i KaZaA – ok. pięć milionów komputerów, 10–14 mln użytkowników.
Alternatywą dla eDonkey jest – eMule (open source). Stanowi to dla internautów zabezpieczenie przed sytuacją, jaka np. miała miejsce w chwili zamknięcia Napstera, a także w przypadku awarii.
•Najbardziej aktywnym systemem P2P jest BitTorrent, który tworzy około jedną trzecią całkowitego ruchu w Internecie.
•W większości użytkownicy P2P są odbiorcami zasobów (70%), a połowa zasobów jest udostępniana przez zaledwie jeden procent uczestników kręgu P2P.

  1. Kłopoty i zagrożenia P2P
•Medium rozprzestrzeniania wirusów (przybierając atrakcyjne nazwy Windows, Quake, DivX),
•podróbki dzieł,
•prawa autorskie.
•P2P, poza działalnością często sprzeczną z prawem, jest groźnym medium rozprzestrzeniania wirusów (przybierając atrakcyjne nazwy – Windows, Quake, DivX).
•Ułatwia proceder rozpowszechniania podróbek wszelkiego typu dzieł dostępnych w postaci cyfrowej.
•Dziewięćdziesiąt procent zasobów sieciowych P2P jest nielegalna – niezgodna z obowiązującymi regulacjami praw autorskich.

  1. Sieci P2P są zastępowane przez usługi hostingowe
•Świadomość istnienia Art. 23 Prawa Autorskiego jest coraz bardziej powszechna.
•Coraz większe znaczenie mają sieci hostingowe (z najbardziej znanych: Megaupload, Rapidshare) oraz polski (płatny za symboliczną kwotę) portal Chomikuj.

  1. Wady sieci hostingowej
•mniej plików (młodsza metoda niż p2p), wrzucane na serwery są tylko rzeczy uznane za wartościowe, nie wszystko co się przeciągnie do folderu "shared",
•nieco trudniejszy upload niż tworzenie torrenta,
•w przypadku muzyki można znaleźć właściwie tylko utwory albo albumy - nie da się znaleźć całych dyskografii (z racji wielkości takiego pliku) -> trzeba ściągać album po albumie - ograniczenia przy braku płatnego konta premium (np. możliwość ściągania jednego pliku na raz oraz konieczność odczekania określonego czasu po skończeniu jednego ściągania) [Da się to jednak obejść korzystając z kilku różnych hostingów oraz używając nowszych portali, na przykład: Mediafire]. - brak możliwości sprawdzenia, co znajduje się wewnątrz ściąganego pliku (torrenty w większości wypadków dawały taką szansę).

  1. Inne formy sieciowej komunikacji aktywnej
    1. Handel
    2. Gry
•World of Warcraft jest jedną z najbardziej popularnych gier tego typu na świecie.
•Pozostałe to EverQuest2, Aion3, Guild Wars4.
•Miejsce zabawy, spotkań towarzyskich i randek (Match.com, ma mniej niż 2 mln użytkowników).
•Ponad 40 procent graczy online to kobiety, grupa dorosłych kobiet rośnie najszybciej, więcej niż chłopców 17 i młodszych (20%).
    1. Rozrywka
  1. Przykład komunikacji autonomicznej
*epidemie wirusów komputerowych, które poza ludzką kontrolą uruchamiają funkcje autonomicznej, celowej wymiany informacji (np. umożliwiające uodparnianie się na programy antywirusowe) i kształtują niektóre „zachowania” komputerów,
*przestępcze przejmowanie zdalnej kontroli nad milionami komputerów (boty i zombi),
*automatyczne rozsyłanie aktualizacji oprogramowania instalowanego na firmowych i domowych komputerach,
*samodzielne uczenie się obsługi dynamicznie zmieniających się sieci przez routery (urządzenia zarządzające ruchem informacyjnym w Sieci) do poziomu złożoności, który pozostaje poza ludzką kontrolą,
*rosnąca liczba funkcji powierzanych cloud computingowi.

(Bot i zombie) – przestępcze przejmowanie zdalnej kontroli nad milionami komputerów

  1. Rola maszyn w komunikacji aktywnej
*W procesie zbierania informacji tworzących zasoby sieciowe i ich udostępniania malejącą rolę pełnią ludzie, pozostawiając inicjatywę maszynom.
*Następuje oddawanie decyzyjności informacyjnej maszynom, które autonomicznie segregują, które informacje zostaną udostępnione (z zachowaniem personalizacji i innych kryteriów), a które nie zostaną wyświetlone na ekranie monitora komputerowego Internauty.

  1. Test Touringa
To sposób określania zdolności maszyny do posługiwania się językiem naturalnym i pośrednio mającym dowodzić opanowania przez nią umiejętności myślenia w sposób podobny do ludzkiego. W 1950 roku Alan Turing zaproponował ten test w ramach badań nad stworzeniem sztucznej inteligencji - zamianę pełnego emocji i w jego pojęciu bezsensownego pytania "Czy maszyny myślą?" na pytanie lepiej zdefiniowane. Test wygląda następująco: sędzia – człowiek – prowadzi rozmowę w języku naturalnym z pozostałymi stronami. Jeśli sędzia nie jest w stanie wiarygodnie określić, czy któraś ze stron jest maszyną czy człowiekiem, wtedy mówi się, że maszyna przeszła test. Zakłada się, że zarówno człowiek, jak i maszyna próbują przejść test zachowując się w sposób możliwie zbliżony do ludzkiego.

Test pochodzi od zabaw polegających na zgadywaniu płci osoby znajdującej się w innym pokoju przy pomocy serii pytań i odpowiedzi pisanych na kartkach papieru. W pierwotnym pomyśle Turinga człowiek musiał udawać przeciwną płeć, a test był ograniczony do pięciominutowej rozmowy. Dziś nie uważa się tych cech za podstawowe i zasadniczo nie umieszcza w specyfikacji testu Turinga.

  1. Komórki i sieć ostoją języków
•Pisane komunikaty podtrzymują zanikające języki świata – jest ich 6 909.
Szperacze
  1. Zasada pracy szperacza

Wyniki szperaczy – linki do wyszukanych zasobów – są wyświetlane w postaci stronicy search engine results page – SERP.

•Główne szperacze wyświetlają zazwyczaj trzy rodzaje list SERP:
–wynikające z indeksacji dokonywanej przez automaty
–przez ludzi
–różnych form opłat za umieszczanie adresów stron na tej liście – tak zwany sponsoring.
•Interesującym źródłem informacji o bieżącej kolejności (aktualizacja co 12 sekund) pierwszych dziesięciu słów kluczowych w 17 kategoriach jest: http://hot.aol.com/hot/hot.
  1. SERP
Stronica, której treść stanowią wyniki pracy szperacza. Zazwyczaj główne szperacze wyświetlają trzy rodzaje list SERP: listy wynikające z indeksacji dokonywanej przez automaty, przez ludzi i wynikające z opłat za umieszczanie adresów Stron na tej liście.
  1. Typy szperaczy
•„ręczne” (A human-based search engine) – powszechnie nazywane katalogami (directory).
•Bazują na pracy ludzkiej np. Yahoo!, Open Directory i Business.com, LookSmart.

  1. Indeksacja
•W zdecydowanej większości wykonują ją automaty – specjalne programy: pająki, roboty („spidery”, „crawlery”),
•szperacz udziela odpowiedzi na zadawane pytania o adresy stron zawierających określone słowa–klucze, nie wyszukując ich w Sieci, a przeglądając gotowy indeks.
•Fundamentem każdego indeksu są metadane stanowiące sumę informacji o informacjach, np. dotyczące struktury opisu określonego materiału: nazwa strony, jej adres, tytuł, pierwszy akapit.

  1. Indeksacja strony
podstawowe źródła indeksowanej strony
•Tytuł strony + opis
•Treści
•Wyróżnione słowa
•Treści w nagłówkach
•Odnośniki i opisy
•Atrybuty (alt i title)
•Wiek domeny
•Linki wewnętrzne

  1. Indeksacja – utrudnienia
•ograniczone możliwości rozpoznawania niektórych form zawartości stron. Chodzi tu o zasoby multimedialne (obrazy, muzyka) i o skomplikowane składowe stron, których szperacze „nie widzą”; są to m.in.: JavaScripty, ramki, flashe.
•rozwiązanie - tzw. doorway pages

  1. Tagi
•Informacje zostają „otagowane” – przyporządkowane odpowiedniej kategorii; sygnalizowanie to ich popularność
•1/3 internautów korzysta z tagów
•Np. del.icio.us

  1. SEO
O

ptymalizacja dla wyszukiwarek internetowych (ang. Search Engine Optimization; zwana także pozycjonowaniem) procesy zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i fraz kluczowych. Proces pozycjonowania jest elementem szeroko pojętego marketingu internetowego. Pozycjonowanie bazuje na znanych elementach działania algorytmu wyszukiwarek, ciągłym poznawaniu nowych, które algorytmy biorą pod uwagę przy rangowaniu strony oraz na weryfikowaniu już istniejących.


  1. Pozycjonowanie
  2. Waga słów kluczowych
•Słowa – hasła lub całe frazy opisujące treść Witryny. Są one umieszczane w określonym, widocznym dla indeksującego szperacza, a niewidocznym dla Internauty, miejscu Witryny
Najważniejsze słowa kluczowe
•Google's Webmaster Tools – informacje o wyświetlaniu słów kluczowych i poprawnej segmentacji informacji
•Google Keyword Tool: dobór słów kluczowych, na jakie urządzenia (PC, mobilne), analiza strony – sugestie słów
•Google Analytics do identyfikacji najskuteczniejszych słów kluczowych

  1. Wiek strony
•Whois onet.pl
•http://archive.org/web/web.php
•Należy kupować stare domeny – wyższa pozycja w PageRank (dropped.pl, aftermarket.pl, az.pl).

  1. 6 kroków optymalizacji obrazów dla SEO
1.Zapewnienie kontekstu obrazu do tekstu słów kluczowych
2.Nadanie poprawnej nazwy obrazom
3.Dobranie stosownej wielkości obrazu
4.Optymalizacja wagi (wielkość, kompresja)
5.Korzystanie z deskryptorów atrybutów ALT i TITLE
6.Załączać opis obrazka

  1. Troska o atrakcyjność strony
•wykluczyć spam (zbyt częste zgłaszanie strony do szperacza); karą za spam jest ignorowanie przez szperacze spamującej witryny,
•unikać wstawiania słów kluczowych w innych, od przeznaczonych do tego celu, miejscach na stronie,
•nie wpisywać fragmentów tekstów czcionką o tym samym kolorze jak tło,
•unikać stosowania wielu tytułów dla jednej strony,
•unikać zgłaszania kopii tej samej strony pod innymi nazwami,
•nie zgłaszać tej samej strony częściej niż raz na 24 godziny,
•nie stosować jako identyfikatorów (słowa klucze, meta tags) słów, które nie są merytorycznie związane z treścią strony.
•Bardzo pomocne w procesie konstruowania strony jest korzystanie z analitycznego oprogramowania służącego do oceny stron, np. WebTrends, ClickTracks, HitBox.

  1. Szperacze multimedialne
•Szperacze wideo (m.in. Google, Yahoo!, MSN) umożliwiają wyszukiwanie, przeglądanie (na zasadzie podglądu), odtwarzanie i ściąganie plików wideo. Są to wiadomości (często uszeregowane w kolejności od najczęściej oglądanych), reklamy filmów, a także tradycyjne reklamy towarów i usług
•wyszukiwanie obrazów na podstawie opisów ich treści. Zapowiedzią takiego rodzaju szperacza jest system Diamond, który udostępnia funkcje np. wyszukiwanie obrazów postaci ubranych w określony sposób – np. mają ubranie koloru czerwonego. Prowadzone w tym kierunku prace przez MIT, Carnegie Mellon i Yahoo! koncentrują się na automatycznym indeksowaniu kształtów, wyglądu twarzy, a także form ruchu. Dane te uzupełniane są informacjami o logo i tekstowymi wstawkami materiałów filmowych
•ditto.com
•gallery.Yahoo!.com
•altavista.com/sites/search/simage
•multimedia.alltheweb.com
•multimedia.lycos.com
•streamsearch.com
•music-robot.com
•photoseek.net
•audioFind.net
•music.Cnet.com
•dgolpe.com
•getsongs.com (multiszperacz)
•music.lycos.com
•Napster, Gnutella.

Google
  1. Potencjał Google’a
•Zawiera 240 milionów nazw domen, przeszukiwane przez Google 3,3 mld dziennie.

  1. Podstawowe usługi Google’a
•Gmail,
•Google Desktop,
•Froogle (usługa polegająca na porównywaniu cen w sklepach),
•Google Earth,
•Picasa (fotografie),
•Google Talk (otwarta platforma dla VoIP)
•+ YouTube + DobleClick

  1. Zasoby informacyjne Google’a
•Użytkownicy utrzymują w zasobach Google’a: foto, blogi, wideo, kalendarze, e-maile, wiadomości, mapy (odpłatne dla dużych i średnich firm – 25 tys. Otwarć dziennie w kwartale), kontakty, social networks, dokumenty, arkusze kalk., prezentacje i numery kart – niemal wszystko o swoim życiu.
•Google planuje dodać informacje medyczne, adresy związane z osobą (przez komórki) i więcej.
•Wszystko także bezprzewodowo.
•Prawdopodobnie najtrudniejsze wyzwanie prywatności w historii ludzkości.

  1. Szukanie z Googlem
•WYSZUKIWANIE WEDŁUG KATEGORII: Po wpisaniu słowa kluczowego możemy zawęzić wyszukiwanie do zadanej kategorii treści, np. »Grafika«, »Miejsca«, »Książki« czy »Dyskusje«.

•OPCJE WYSZUKIWANIA GRAFIKI: Znalezione obrazy można filtrować według daty utworzenia, wielkości, a nawet koloru. Można też ograniczyć wyszukiwanie do zdjęć twarzy, obrazów typu clip-art czy grafik wektorowych.

•HISTORIA WYSZUKIWANIA: Po zalogowaniu się na koncie Google kliknijmy ikonę ustawień, a następnie wybierzmy opcję »Historia online«. Google pamięta, czego szukaliśmy do tej pory.

•GRAFIKA JAKO SŁOWO KLUCZOWE:

•Aby wyszukać w Sieci obiektu przedstawionego w pliku graficznym, otwórzmy na stronie Google kategorię »Grafika«, a następnie kliknijmy ikonę aparatu w polu wyszukiwania i podajmy adres URL tego pliku lub załadujmy go bezpośrednio z dysku. W wynikach wyszukiwania znajdziemy zarówno strony, na których pojawia się ta grafika, jak i wizualnie podobne obrazy.

•ZAAWANSOWANE WYSZUKIWANIE: Kliknijmy ikonę ustawień i wybierzmy opcję »Szukanie zaawansowane«. Wypełniając formularz, zdefiniujmy dodatkowe kryteria i ograniczenia wyszukiwania. Podpowiedzi widoczne po prawej stronie wprowadzą nas w składnię pola wyszukiwania

  1. Google – inwigilacja
•Google Search: gromadzi wiele różnych typów informacji o aktywności online
•Przyszłe produkty będą zawierały gromadzenie danych i „targetowanie” jako podstawowy cel.
•Wszystkie usługi Google (Google search, Gmail, Orkut i Google Desktop) mają podlinkowane cookies, o czasie działania – 2038 r. Każdy z cookies ma globalny unikalny identyfikator (GuID) i może rejestrować wszystkie zadawane przez użytkownika pytania. Google nie kasuje żadnych informacji z cookies.
•Orkut: Google’owy socialnetworking zawiera poufne informacje (nazwisko, adres mailowy, nr tel., wiek, adres pocztowy, status relacji, liczba dzieci, region i hobby).
Gmail Patents: Patent #20040059712 : “serving advertisements using information associated with email.” (usługi reklamowe powiązane z mailami)
•Google Desktop: tekstowe informacje, arkusze kalkulacyjne, maile i obrazy. Indeks jest zapisany na lokalnym komputerze.
•Chrome (przeglądarka) - ryzyko: każde słowo, jego część wpisane do „belki”, nawet bez kliknięcia w Enter/Return, jest pobierane przez Google. Chrome automatycznie wysyła te informacje do centrali przy każdym wyszukiwaniu.
•Android (SO dla komórek): gromadzi informacje o wybieranych numerach, numery otrzymanych telefonów, przebieg poszukiwań w sieci, maile, lokalizacje geograficzne, w których telefon był używany.
•Google Health: produkt rejestrujący dane o zdrowiu (pracowników, indywidualnych osób). Wiele firm medycznych i farmaceutycznych (CVS Caremark, Walgreens, Longs Drugs) w USA zgodziło się na import ich baz danych.

  1. Zyski/straty
  2. Inne wyszukiwarki
Factiva
•Ponad 28,000 źródeł z 200 krajów w 23 językach,
•600 aktualizowanych na bieżąco serwisów informacyjnych.

QDA Miner 3.2
•Zaawansowane narzędzie programowe do analizy, kodowania, zarządzania danymi/dokumentami.
•Identyfikuje i szuka relacji pomiędzy dokumentami.

Buzz (do Gmail)
•Odpowiedź na Facebooka i Twittera
•Gotowa sieć (bez pytania o zgodę do jej tworzenia) znajomych automatycznie wyselekcjonowana wg: firma, najczęściej wysyłane maile, czatowanie.
•Łatwo sprawdzić powiązania
•Google wycofuje się z tej wersji

Linguboty
•Są to programowe narzędzia, najczęściej stosowane w formie usług dostępnych w Sieci, które usiłują symulować naturalną rozmowę z zadającym pytania.
•Najczęściej usługa ta wykorzystywana jest w celach marketingowych – służy do udzielania informacji na temat firmy (www.spsa.pl, ww.hestia.pl). Wśród najsłynniejszych na świecie lingubotów wyróżniane są: ELIZA i ALICE

Quaero i Theseus
•Francja (budżet i 23 przedsiębiorstwa, wśród nich Thomson i France Telecom) i Niemcy (budżet) dofinansowują wyszukiwarki – ograniczenie dominacji Google’a, kultury anglosaskiej.

•Quaero, multimedia - 99 milionów €.
•Niemcy – Theseus, bardziej tekstowa.

Wyszukiwarki w czasie rzeczywistym – real time search
  1. Istota
* SERP aktualizowany na bieżąco
* Źródła – głównie sieci społecznościowe
– Facebook
– MySpace
– Twitter
– Google Buzz
– FriendFeed
– nagłówki artykułów
– posty z blogów
*Ocena – użytkownicy, sieć.

  1. Kryteria szukania
•Data wiadomości
•Czas
•Lokalizacja

  1. Wyszukiwarki realtime
•Rezultaty z blogów, mikroblogów, feedów wiadomości i serwisów udostępniających fotografie.
•Podstawą wyszukiwania: oceny użytkowników internetu – linki (Twitter, Facebook, Delicious) rekomendowane przez użytkowników – social relevance rank. Np.
•Collecta
•OneRiot
•CrowdEye
•Google – „najnowsze”
Wyszukiwarki czasu rzeczywistego
•Google
•Collecta (www.collecta.com) sprawdza: mikroblogi, komentarze na forach i w blogach, zdjęcia z serwisu Flickr i filmy z YouTube'a.
•monitter (www.monitter.com) – śledzi w czasie rzeczywistym wyniki dla trzech różnych słów kluczowych jednocześnie w Twitterze.
•Yauba (www.yauba.com)
•Twazzup (www.twazzup.com) - pozwala przeszukiwać statusy popularnych osób korzystających z serwisu Twitter. Dodatkową funkcją jest możliwość wyszukiwania wiadomości tylko w języku polskim.

  1. Wyszukiwanie w czasie rzeczywistym
•po wpisaniu frazy w wyszukiwarce pojawia się wynik wyszukiwania wzbogacony o fragmenty rozmów toczących się aktualnie w serwisach społecznościowych.
•W praktyce opiera się ono na założeniu, że internauci potrafią lepiej niż sztuczne algorytmy ocenić przydatność aktualnych informacji.

  1. Semantyczna sieć
•doskonalenie stosowanych technologii precyzyjnego lokalizowania informacji w Sieci.
•idea twórcy WWW – Tim’a Berners-Lee’a – tworzenia semantycznej Sieci (ang. The semantic Web),
•stworzenie narzędzi do logicznej komunikacji z Siecią - wyszukiwania informacji za pośrednictwem naturalnego dialogu człowiek - maszyna.
•Trudność w realizacji tego przedsięwzięcia wynika z tego, iż forma zasobów informacyjnych Sieci jest dostosowana do oczekiwań ludzi. Automatyzacja ich analizy, z zachowaniem rozpoznawania relacji słów stanowiących przedmiot zadanego pytania (np. która budowla jest starsza – Pałac Kultury czy Pałac Staszica?) wymaga odpowiedniej organizacji zapisów gromadzonych w Sieci.
•Do danych, w sieci semantycznej, muszą być dołączone dodatkowe informacje o relacjach między nimi. Służą temu stworzone i nadal budowane standardy zapisu meta danych (np. XML, SPARQL, RDF, OWL) oraz programowe narzędzia wykorzystujące sztuczną inteligencję i lingwistykę.

  1. Semantyka sieci
*Na razie komputery rozumieją tylko proste polecenia
*Nie rozumieją języka naturalnego
*Mogą wyszukiwać słowa, ale słowa to nie wszystko
*Nie widzą związków między słowami i nie mogą domyślać się z kontekstu

  1. Wyszukiwarki semantyczne
Analizują nie tylko informacje bezpośrednio napisane na stronie, ale potrafią łączyć ze sobą różne fakty, wyciągać wnioski.
Agenci
•komputerowy twór, który samodzielnie wykonuje zadania zlecone przez użytkownika, w tym przypadku – wyszukuje na bieżąco, w czasie rzeczywistym informacje według zadanych kryteriów.
•Podczas wyszukiwania najczęściej są przeglądane treści następujących składowych witryn: tytuły, nagłówki, słowa kluczowe, streszczenia, daty aktualizacji, rozmiary stronic i daty ostatniej wizyty agenta.
•Wyniki poszukiwania informacji są dostarczane zamawiającemu online, lub offline, za pośrednictwem maila.
•Na przykład MySimon przegląda informacje z tysięcy sklepów w dziesięciu kategoriach, m.in.: książki, elektronika, informatyka (sprzęt i oprogramowanie), filmy, ubrania, muzyka i zabawki.
  1. Przyszłość szperaczy
•włączanie do usług szperaczy bezpłatnej telefonii internetowej (Google), RSS’ów i blogów (Yahoo!). Np. indeksowaniem RSSowych feedów zajmuje się Feedster
•system w postaci megaszperacza integrującego dane o zasobach informacyjnych Internetu – stanowi docelowy model uniwersalnego narzędzia służącego do lokalizacji zasobów Sieci.

  1. And” – operator logiczny (sumujący)
Media Online
  1. Nowe/cyfrowe media
•technologie komunikacyjne i informacyjne oraz ich otoczenie społeczne
•obejmują: narzędzia programowo-techniczne, które mają bezpośredni związek z funkcjonowaniem Sieci
•ułatwiają i zmieniają gromadzenie oraz udostępnianie informacji na drodze komunikacji sieciowej.

  1. Zasobne media”
•bogate we wszystkie formy multimedialnej informacji, stają się coraz popularniejszym sposobem dostępu do wszechobecnej informacji w postaci cyfrowej.
•zasobne media są definiowane jako obrazy, materiały audio, wideo i pozostałe wizualnie zorientowane, nieustrukturyzowane zasoby, takie jak animacje i prezentacje.

  1. Ekspansja mediów online
•zwraca uwagę na wnioski wypływające z kilkuletniego ignorowania zapotrzebowania na cyfrową dystrybucję produktów muzycznych, a w konsekwencji niemal zapaści tradycyjnych form ich dystrybucji.
•Wartościowe wskazówki sposobów mariażu z IT wynikają także z doświadczeń bankowości internetowej.
•Szukanie piratów w Sieci, różne formy restrykcji, tworzenie praw okazało się krótkowzroczne, nie przyniosło i nie przyniesie oczekiwanych rezultatów.
•Tradycyjne media, bogatsze o doświadczenia przemysłu muzycznego, bankowości online, zmuszone są do stawienia czoła nowym wyzwaniom formułowanym przez chłonny i szybko rozszerzający się wirtualny świat. Rozwiązań poszukuje się w nowych modelach płatności i nowoczesnych technologiach dystrybucji finalnych produktów medialnych – media nie mają nic do zyskania, a wszystko do stracenia.

  1. Zmiany
•Jeśli starsza siwa dama wśród gazet - The New York Times – zmieniła swoje wyzwanie z „wszystkie wiadomości, które nadają się do druku” na „wszystkie wiadomości, które można kliknąć”, to oznacza niewątpliwą, fundamentalną zmianę w świecie publikacji.
•When the grand, gray lady of newspapers, The New York Times, changes its tagline from “All the News That’s Fit to Print” to “All the News That’s Fit to Click,” there can be no question that momentous changes are underway in the publishing world.

  1. Gazety online
•są to wszelkie formy publikowania informacji w Internecie, które stanowią całość lub część drukowanej postaci dzienników i czasopism.
•Niektóre gazety online uzupełniane są o bieżąco aktualizowane informacje, także w formie multimedialnej.
•Szczególną formą gazet online są gazety wirtualne – publikowane tylko w Sieci – które nie mają swojego odpowiednika w formie drukowanej.
•Globalna poczytność gazet drukowanych zmalała w ciągu ostatnich piętnastu lat o jedną trzecią. Towarzyszy temu zjawisko starzenia się czytelników tradycyjnych gazet.
fragment regulaminu Związku Kontroli Dystrybucji Prasy
•E-wydanie jest to elektronicznie rozpowszechniana wersja, przynajmniej jednej mutacji, kontrolowanego tytułu prasowego, zawierająca ten sam w formie i treści materiał redakcyjny i reklamy co wersja drukowana.
•Wymóg całkowitej zgodności e-wydania z wersją drukowaną nie dotyczy insertów i gadgetów. (...)
•Materiał redakcyjny w wersji elektronicznej może być dodatkowo rozszerzony, a reklamy mogą być zaadaptowane w sposób pozwalający na wykorzystanie możliwości medium elektronicznego.

  1. E-kiosk.pl
•portfolio e-Kiosk.pl 230 tytułów prasowych, +1000 audiobooków i e-booków

  1. W jakim czytniku jaki DRM
  1. DRM (Digital Right Manager) – elektroniczne zabezpieczenie dokumentów. Zabezpieczenie przed kopiowaniem. Ustawia się tu przywileje dla poszczególnych klientów.

  1. Audio I video online
•Coraz większa liczba osób do słuchania audycji radiowych wybiera Internet, a nie tradycyjny odbiornik radiowy
•Słuchanie radia przez Internet jest popularniejsze niż oglądanie telewizji online.
•Cyfrowe wideo, w tym audycje telewizyjne nadawane przez Internet cieszą się mniejszą ale szybko rosnącą popularnością.
•Sieć wydaje się już wychodzić z ery „filmu niemego”, stanowiąc nie tylko doskonałe narzędzie do dystrybucji tekstu, nieruchomych obrazów i muzyki, ale także materiałów filmowych.
•Zapowiedzią ugruntowania tego stanu jest rosnąca liczba wdrożeń cyfrowej dystrybucji programów radiowych i telewizyjnych. Jest to już widoczne w „cyfrowym radiu” – „digital audio broadcasting” (DAB), którego europejskim standardem jest Eureka.

  1. Wave – 1024 kb/s
MP3 – 512 kb/s (format po kompresji Wave)

  1. Radio online, licencje
•Za: autor muzyki, tekstu, wykonawca i producent
•Komu: ZAiKS, SAWUMiSM, ZSAW STOART, ZPA-V
•Opłata zależy od % chronionych utworów w programie. Do 10% - 1% przychodów do 7% gdy 70% chronione
•Minima: 100 zł dla<50 słuchaczy, 200 zł dla <200

  1. Własne stacje radiowe
•Większość nadaje: 32 Kb/s (AAC+), 56, 64, 96 do 128 Kb/s. Minimum – 96
•Uniwersalny Serwis radiowy SHOUTcast: info o radiach i platforma (wirtualne serwery) dla stacji
•Ceny: kilkadziesiąt groszy/jeden słuchacz (48-64 Kb/s), 0,8-1zł (98-128 Kb/s)
Zasoby informacyjne
  1. Zasoby informacyjne sieci
•Zarysowuje się brak równowagi między narzędziami umożliwiającymi korzystanie z Internetu, a oferowanymi tam zasobami informacyjnymi i usługami (rafinacja informacji sieciowych).
•Sieciowe zasoby zazwyczaj są szczególnie cenne ze względu na ich aktualność i możliwość szybkiego i powszechnego do nich dostępu.
•Wiedza o tym potencjale ma kapitalne znaczenie w obszarach społeczno-ekonomicznym oraz nauki i edukacji.
•W odniesieniu do mediów zasoby informacyjne są wartościowym źródłem informacji backgroundowych i bieżących oraz kontroli poczynań konkurencji.

  1. Wiarygodność informacji sieciowych
•Nawet niewielka część nieprawdziwych danych w wyróżnionym zasobie czyni jego całość mało wiarygodną.
•Stwarza to ryzyko, często bezkrytycznego, wykorzystywania mało wartościowego informacyjnego potencjału Internetu.
•Mamy do czynienia z paradoksem, iż „nieograniczonemu dostępowi do informacji towarzyszy ryzyko uzyskiwania mniejszej wiedzy”.
•Współczesne technologie informacyjne istnieją bez odpowiednio wykształconych ram, w postaci struktur wartości i wzorców mających wpływ na sieciowe zasoby.
•Ramy te nie mają stosownych związków z regulacjami prawnymi oraz instytucjonalnymi strukturami.

  1. Co wspólnego ma wiarygodność informacji w sieci z wyszukiwarkami w czasie rzeczywistym?
  2. Co wspólnego ma iloczyn logiczny informacji z wiarygodnością wyszukiwarek w czasie rzeczywistym?
prawnymi oraz instytucjonalnymi strukturami.
  1. Ograniczenie „smogu”
•Korzystanie ze stron internetowych o powszechnie akceptowanej wiarygodności, o wysokich ocenach nadawanych przez uznane autorytety. Ich właścicielami są zazwyczaj instytucje o dużym prestiżu. Innym sposobem uwiarygodniania są:
–społeczna, środowiskowa akceptacja źródeł, których wyraz stanowi liczba i częstotliwość powoływania się na te źródła przez uznane autorytety, np. w świecie nauki.
–porównywanie informacji z różnych niezależnych źródeł sieciowych,
–korzystanie z komercyjnych zasobów informacyjnych oraz stron urzędów biorących udział w tworzeniu prawa i generujących raporty na potrzeby państwa.

  1. GIODO
•Wyszukiwanie Funkcja "Wyszukiwanie" umożliwia wyszukiwanie zbiorów w prowadzonym przez GIODO ogólnokrajowym rejestrze zbiorów danych osobowych, według kryteriów podstawowych do których należą: nazwa administratora danych, nazwa miejscowości, nazwa zgłoszonego zbioru, numer księgi rejestrowej oraz numer zgłoszenia.
•Wyszukiwanie zaawansowane Funkcja "Wyszukiwanie zaawansowane" umożliwia przeszukiwanie rejestru według kryteriów rozszerzonych, do których należą: nazwa administratora danych, siedziba administratora (nazwa miejscowości, nazwa ulicy, kod pocztowy, REGON, nazwa zgłoszonego zbioru, numer księgi rejestrowej oraz numer zgłoszenia).

  1. Otwarte zasoby – motyw sieci, altruizm w sieci

  1. Dane Otwarte, Open Data


  1. Dane o osobach
•dostępne we wszelkiego rodzaju katalogach typu Who is Who (np. obecny w Dialogu – Marquis Who’s Who®),
•Social networking - SoFlow.com – miejsce w wirtualnym świecie, które pomaga odszukiwać osoby mające wspólne zainteresowania, usiłujące nawiązać współpracę na płaszczyźnie prowadzenia interesów (partnerzy, inwestorzy, kontakty). Jest to rodzaj aukcji skrzyżowanej z blogiem, gdzie przedmiotem są osoby.

  1. Australia – przykład manipulacji
•Australijski rząd to kolejna instytucja, która poprawia informacje umieszczane w Wikipedii na swój temat.
•System Wikipedii wykrył, że australijskie ministerstwo obrony wprowadziło 5 tys. zmian w hasłach encyklopedii. Częstych zmian w Wiki dokonuje również CIA oraz BBC.

  1. Problem archiwizacji informacji
•Informacje w postaci cyfrowej nanoszone są na przeróżne nośniki (taśmy, dyski, dyskietki, CD, DVD). Jednak wszystkie one gwarantują stosunkowo krótki okres trwałości przechowywanych na nich informacji. Maksymalnie do 100 lat
•Maleje proporcja informacji gromadzonych na tradycyjnych nośnikach informacji – papierowych – na korzyść zapisu cyfrowego

  1. Cyfrowe nośniki vs. Papierowe
•Papier przestał być głównym nośnikiem informacji
•Przykład częstotliwości korzystania z książki telefonicznej
•Konsekwencje
–zagrożenie trwałości zapisów
–większa konsumpcja energii elektrycznej

  1. Negatywne informacje
•Trudne do usunięcia. Koszt 500 – 1000 USD
•Blokada w wyszukiwarkach negatywnych informacji – tysiące USD + kolejne tysiące w danych o osobach: Intellius lub PeopleFinder
•Usunięcie oszczerczych (ktoś o firmie) informacji – dziesiątki tysięcy USD

  1. Czas życia w profilu w sieci
•Prośba o kontakt (Facebook) od osoby, która zmarła.
•Problem narasta ze wzrostem wieku internautów
•Facebook umożliwia zgłoszenie śmierci (krewny, znajomy) stosownym dowodem, np. informacją z drukowanej gazety.

  1. Sieciowa pamięć
•Nieprzemyślane informacje o sobie (tekst, obrazy) pozostają na lata w Sieci bez możliwości ich usunięcia. Sieć nie daje drugiej szansy!
•75% profesjonalistów HR kontroluje kandydatów w Sieci (szperacze, społecznościowe, foto, wideo, osobiste strony, blogi, gry online. Efekt - 70% kandydatów odrzucona.

  1. GPS
•Global Positioning System,
•Światowy system określania położenia
• baza: 24 satelity
•Dokładność do 10 m.
Rafinacja informacji
•Jest peryskopem pomiędzy dwoma poziomami informacji: poziomu bazowego i poziomu wyniku rafinacji.
•Umożliwia dostrzeganie informacji z otoczenia/poziomu bazowych informacji (czyste informacje z WWW) tych, które są na poziomie informacji będących wynikiem rafinacji.
  1. Diagnoza emocjonalnych odczuć adresata przekazu
•Tłumaczenie emocjonalnych odczuć na liczby.

•Analityczne narzędzia mierzące sentyment użytkownika Sieci (sentiment analysis) Do określonych zdarzeń, informacji, marek towarowych oraz towarów, a nawet wskazywania dni, w których Internauci są najbardziej podatni na określone przekazy informacyjne.

5 komentarzy:

  1. Tak pokaźnej wiedzy już dawno nie widziałem. Brawo dla autora. Zastanawiam się czy mógłbyś opisać systemy płatności jak https://www.cashbill.pl/integracja/integracja-platnosci-online-shoper

    OdpowiedzUsuń
  2. Bardzo fajnie napisane. Pozdrawiam serdecznie !

    OdpowiedzUsuń
  3. Jestem pod wrażeniem. Bardzo ciekawie napisany artykuł.

    OdpowiedzUsuń
  4. Świetny wpis. Będę na pewno tu częściej.

    OdpowiedzUsuń
  5. Psychologia online to również świetne rozwiązanie dla osób, które czują się niekomfortowo z wizytą w tradycyjnym gabinecie psychologicznym. Możliwość prowadzenia sesji w przestrzeni domowej może pomóc w szybszym osiągnięciu stanu relaksu i otwartości. Informacje na temat dostępnych usług i specjalistów znajdują się na https://psycholog-ms.pl/psycholog-online/.

    OdpowiedzUsuń