World Wide Web är ett distribuerat system som ger tillgång till sammanlänkade dokument som finns på olika datorer anslutna till Internet . För att hänvisa till World Wide Web används också ordet webb ( engelska webben "web") och förkortningen WWW .
World Wide Web består av hundratals miljoner webbservrar . De flesta av resurserna på World Wide Web är baserade på hypertextteknik . Hypertextdokument som finns på World Wide Web kallas webbsidor . Flera webbsidor som delar ett gemensamt tema eller design , samt länkar till varandra, och som vanligtvis finns på samma webbserver , kallas en webbplats . För att ladda ner och visa webbsidor används speciella program - webbläsare ( engelska webbläsare ).
World Wide Web orsakade en verklig revolution inom informationsteknologin och gav en kraftfull drivkraft till utvecklingen av Internet . I dagligt tal , när man talar om Internet, menar de ofta World Wide Web. Det är dock viktigt att förstå att dessa inte är samma sak.
World Wide Web består av miljontals webbservrar på Internet runt om i världen. En webbserver är ett datorprogram som körs på en dator som är ansluten till ett nätverk och använder HTTP-protokollet för att överföra data. I sin enklaste form tar ett sådant program emot en HTTP-förfrågan för en specifik resurs över nätverket, hittar motsvarande fil på den lokala hårddisken och skickar den över nätverket till den begärande datorn. Mer sofistikerade webbservrar kan generera dokument dynamiskt som svar på en HTTP-förfrågan med hjälp av mallar och skript .
För att se informationen som tas emot från webbservern används ett speciellt program på klientdatorn - en webbläsare . Huvudfunktionen för en webbläsare är att visa hypertext . World Wide Web är oupplösligt kopplat till begreppen hypertext och hyperlänkar . Mycket av informationen på webben är hypertext.
För att skapa, lagra och visa hypertext på World Wide Web används traditionellt HTML -språket ( Engelska HyperText Markup Language "hypertext markup language"). Arbetet med att skapa (märka upp) hypertextdokument kallas layout , det görs av en webbmaster eller en separat uppmärkningsspecialist - en layoutdesigner. Efter HTML-uppmärkning sparas det resulterande dokumentet i en fil , och sådana HTML - filer är huvudtypen av World Wide Web-resurser. När en HTML-fil väl har gjorts tillgänglig för en webbserver kallas den för en "webbsida". En uppsättning webbsidor bildar en webbplats .
Hypertextsidor på World Wide Web innehåller hyperlänkar. Hyperlänkar hjälper användare av World Wide Web att enkelt navigera mellan resurser (filer), oavsett om resurserna finns på den lokala datorn eller på en fjärrserver. Uniform Resource Locators används för att lokalisera resurser på World Wide Web . Till exempel ser den fullständiga webbadressen till huvudsidan i den ryska delen av Wikipedia ut så här: . Sådana URL-lokaliserare kombinerar URI -identifieringsteknologin ( Uniform Resource Identifier ) och DNS ( Domain Name System ) . Domännamnet (i det här fallet ) som en del av URL:en betecknar en dator (mer exakt ett av dess nätverksgränssnitt ) som exekverar koden för den önskade webbservern. Webbadressen till den aktuella sidan kan vanligtvis ses i webbläsarens adressfält, även om många moderna webbläsare föredrar att endast visa domännamnet för den aktuella webbplatsen som standard. http://ru.wikipedia.org/wiki/Заглавная_страница ru.wikipedia.org
För att förbättra den visuella uppfattningen av webben har CSS -teknik blivit allmänt använd , vilket gör att du kan ställa in enhetliga designstilar för många webbsidor. En annan innovation som är värd att uppmärksamma är resursbeteckningssystemet URN ( Uniform Resource Name ) .
Ett populärt utvecklingskoncept för World Wide Web är skapandet av den semantiska webben . Den semantiska webben är ett tillägg till den befintliga World Wide Web, som är utformad för att göra informationen som publiceras på nätverket mer förståelig för datorer. Det är också konceptet med ett nätverk, där varje resurs på mänskligt språk skulle förses med en beskrivning som är förståelig för en dator. Den semantiska webben öppnar upp för tillgång till tydligt strukturerad information för alla applikationer, oavsett plattform och oavsett programmeringsspråk . Program kommer att kunna hitta de nödvändiga resurserna själva, bearbeta information, klassificera data, identifiera logiska samband, dra slutsatser och till och med fatta beslut baserat på dessa slutsatser. Den semantiska webben har potential att revolutionera Internet om den antas och implementeras på ett bra sätt. För att skapa en datorvänlig resursbeskrivning använder den semantiska webben RDF -formatet ( Resource Description Framework ) , som är baserat på XML -syntax och använder URI:er för att ange resurser. Nytt på detta område: RDFS ( RDF Schema ) och SPARQL ( Protocol And RDF Query Language ) (uttalas "sparkle"), ett nytt frågespråk för snabb åtkomst till RDF-data .
Tim Berners-Lee och, i mindre utsträckning, Robert Cayo anses vara uppfinnarna av World Wide Web . Tim Berners-Lee är författare till HTTP , URI / URL och HTML -teknologier . 1980 arbetade han för European Council for Nuclear Research ( franska conseil européen pour la recherche nucléaire , CERN ) som mjukvarukonsult. Det var där, i Genève ( Schweiz ), som han skrev Inquire-programmet för eget bruk ( sv . Inquire , kan fritt översättas som "Interrogator"), som använde slumpmässiga associationer för att lagra data och lade den konceptuella grunden för världen Wide Web.
1989, medan han arbetade på CERN på organisationens intranät, föreslog Tim Berners-Lee det globala hypertextprojektet som nu är känt som World Wide Web. Projektet innebar publicering av hypertextdokument som länkades samman med hyperlänkar , vilket skulle underlätta sökning och konsolidering av information för CERN-forskare. För att implementera projektet uppfann Tim Berners-Lee (tillsammans med sina assistenter) URI :er , HTTP-protokollet och HTML -språket . Dessa är tekniker utan vilka det inte längre är möjligt att föreställa sig det moderna Internet . Mellan 1991 och 1993 förbättrade Berners-Lee de tekniska specifikationerna för dessa standarder och publicerade dem. Men inte desto mindre bör officiellt födelseåret för World Wide Web anses vara 1989 .
Som en del av projektet skrev Berners-Lee världens första webbserver som heter " httpd " och världens första hypertextwebbläsare som heter " WorldWideWeb ". Den här webbläsaren var också en WYSIWYG- redigerare (förkortning av what you see is what you get - what you see is what you get), dess utveckling påbörjades i oktober 1990 och slutfördes i december samma år. Programmet fungerade i NeXTStep - miljön och började spridas över Internet sommaren 1991 .
Mike Sendall köper en NeXT-kubdator vid denna tidpunkt för att förstå vad dess arkitektur har för funktioner och ger den sedan till Tim [Berners-Lee]. Tack vare det sofistikerade NeXT-kubprogramvarusystemet skrev Tim en prototyp som illustrerar huvudpunkterna i projektet på några månader. Det var ett imponerande resultat: prototypen erbjöd användare bland annat avancerade funktioner som WYSIWYG-surfning/författarskap!... . Det enda jag insisterade på var att namnet inte ännu en gång skulle utvinnas från samma grekiska mytologi. Tim föreslog "world wide web". Jag gillade genast allt med den här titeln, bara den är svår att uttala på franska.
— Robert Cailliau, 2 november 1995 [1]Världens första webbplats hostades av Berners-Lee den 6 augusti 1991 på den första webbservern , tillgänglig på http://info.cern.ch/( arkiverad här ). Resursen definierade begreppet " World Wide Web ", innehöll instruktioner för att installera en webbserver, använda en webbläsare, etc. Den här webbplatsen var också världens första Internetkatalog , eftersom Tim Berners-Lee senare placerade ut och upprätthöll en lista med länkar till andra webbplatser där.
Det första fotot som dök upp på World Wide Web var av parodifilkbandet Les Horribles Cernettes [ 2] . Tim Berners-Lee bad bandledaren om skannade bilder efter CERN:s hårdoniska festival.
Ändå lades webbens teoretiska grund mycket tidigare än Berners-Lee. Redan 1945 utvecklade Vannaver Bush konceptet Memex - mekaniska hjälpmedel för att "utvidga mänskligt minne ". Memex är en enhet där en person lagrar alla sina böcker och register (och helst all sin kunskap som kan beskrivas formellt) och som ger ut nödvändig information med tillräcklig hastighet och flexibilitet. Det är en förlängning och ett tillägg till mänskligt minne. Bush förutspådde också en omfattande indexering av texter och multimediaresurser med förmågan att snabbt hitta nödvändig information. Nästa viktiga steg mot World Wide Web var skapandet av hypertext (en term som myntades av Ted Nelson 1965 ) .
Sedan 1994 har World Wide Web Consortium (W3C), grundat och fortfarande leds av Tim Berners-Lee, tagit över huvudarbetet med utvecklingen av World Wide Web . Detta konsortium är en organisation som utvecklar och implementerar tekniska standarder för Internet och World Wide Web. W3C:s uppdrag: "Släpp loss den fulla potentialen hos World Wide Web genom att skapa protokoll och principer som garanterar en långsiktig utveckling av webben." Konsortiets andra två stora mål är att säkerställa en fullständig "internationalisering av webben" och att göra webben tillgänglig för personer med funktionsnedsättning.
W3C utvecklar gemensamma principer och standarder för Internet (kallade "rekommendationer", eng. W3C-rekommendationer ), som sedan implementeras av mjukvaru- och hårdvarutillverkare. På så sätt uppnås kompatibilitet mellan mjukvaruprodukter och utrustning från olika företag, vilket gör World Wide Web mer perfekt, mångsidigt och bekvämt. Alla rekommendationer från World Wide Web Consortium är öppna, det vill säga de är inte skyddade av patent och kan implementeras av vem som helst utan några ekonomiska bidrag till konsortiet.
För närvarande finns det två riktningar i utvecklingen av World Wide Web: den semantiska webben och den sociala webben .
Inom ramen för den andra riktningen används utvecklingar som är en del av den semantiska webben aktivt som verktyg ( RSS och andra webbflödesformat , OPML , XHTML mikroformat ). Delvis semantiserade sektioner av Wikipedia-kategoriträdet hjälper användare att medvetet navigera i informationsutrymmet, men mycket milda krav på underkategorier ger inte anledning att hoppas på utvidgningen av sådana sektioner. I detta avseende kan försök att sammanställa kunskapsatlaser vara av intresse.
Det finns också ett populärt koncept Web 2.0 , som sammanfattar flera utvecklingsriktningar för World Wide Web på en gång.
Det finns också ett projekt för att integrera World Wide Web baserat på Web3 -blockkedjan [3] , som inkluderar begrepp som decentralisering och en token- ekonomi [4] [5] . Vissa experter och journalister kontrasterar det med Web 2.0 , där data och innehåll enligt deras åsikt är centraliserat i en liten grupp företag, ibland kallad GAFAM ( Google , Amazon , Facebook , Apple , Microsoft ) [6] . Termen myntades 2014 av Ethereums medgrundare Gavin Wood , och 2021 blev kryptovalutaentusiaster, stora teknikföretag och riskkapitalföretag [6] [7] intresserade av idén .
Informationen som presenteras på webben kan nås:
Sätt att aktivt visa information på World Wide Web inkluderar:
Denna uppdelning är mycket villkorad. Så, säg, en blogg eller en gästbok kan betraktas som ett specialfall av ett forum, vilket i sin tur är ett specialfall av ett innehållshanteringssystem. Vanligtvis manifesteras skillnaden i syftet, tillvägagångssättet och placeringen av en viss produkt.
En del av informationen från webbplatser kan också nås genom tal. Indien har redan börjat [8] testa ett system som gör textinnehållet på sidor tillgängligt även för människor som inte kan läsa och skriva.
För cyberbrottslingar har World Wide Web blivit ett viktigt sätt för skadlig programvara att spridas . Dessutom omfattar begreppet nätverksbrott identitetsstöld , bedrägeri , spionage och olaglig insamling av information om vissa ämnen eller föremål [9] . Webbsårbarheter , av vissa konton, är nu fler än alla traditionella manifestationer av datorsäkerhetsproblem ; Google uppskattar att ungefär en av tio sidor på World Wide Web kan innehålla skadlig kod [10] [11] [12] . Enligt Sophos , en brittisk tillverkare av antiviruslösningar , utförs de flesta cyberattacker på webben av legitima resurser som främst finns i USA , Kina och Ryssland [13] . Den vanligaste typen av sådana attacker, enligt information från samma företag, är SQL-injektion - att med skadlig uppsåt lägga in direkta databasförfrågningar i textfält på resurssidor, vilket med en otillräcklig säkerhetsnivå kan leda till avslöjande av innehållet i databasen [14] . Ett annat vanligt HTML- och Unique Resource Identifier -hot mot World Wide Web-webbplatser är cross-site scripting (XSS), som möjliggjorts genom introduktionen av JavaScript -teknik och som tog fart med utvecklingen av Web 2.0 och Ajax - nya webbdesignstandarder uppmuntrade användningen av interaktiva scenarier [15] [16] [17] . Enligt 2008 års uppskattningar var upp till 70 % av alla webbplatser i världen sårbara för XSS-attacker mot sina användare [18] .
De föreslagna lösningarna på respektive problem varierar avsevärt upp till fullständig motsägelse till varandra. Stora leverantörer av säkerhetslösningar som McAfee , Avira , Avast och andra utvecklar produkter för att utvärdera informationssystem för deras överensstämmelse med vissa krav, andra marknadsaktörer (till exempel Finjan ) rekommenderar att man genomför en aktiv studie av programkoden och i allmänhet alla innehåll i realtid, oavsett från datakällan [9] [19] . Det finns också åsikter om att företag bör se säkerhet som en affärsmöjlighet snarare än en kostnad; för att göra detta måste de hundratals informationssäkerhetsföretagen idag ersättas av en liten grupp organisationer som skulle upprätthålla infrastrukturpolicyn med konstant och genomgripande förvaltning av digitala rättigheter [20] [21] .
Varje gång en användares dator begär en webbsida från servern bestämmer servern och loggar vanligtvis IP-adressen från vilken begäran kom. På samma sätt registrerar de flesta webbläsare de besökta sidorna, som sedan kan visas i webbläsarens historik, och cachelagrar det nedladdade innehållet för eventuell återanvändning. Om en krypterad HTTPS- anslutning inte används när man interagerar med servern , sänds förfrågningar och svar på dem över Internet i klartext och kan läsas, skrivas och ses på mellanliggande nätverksnoder .
När en webbsida begär och användaren tillhandahåller en viss mängd personlig information , såsom för- och efternamn eller riktig adress eller e-postadress, kan dataströmmen deanonymiseras och associeras med en specifik person. Om en webbplats använder cookies , användarautentisering eller annan teknik för besöksspårning, kan ett förhållande även upprättas mellan tidigare och efterföljande besök. Således har en organisation som verkar på World Wide Web förmågan att skapa och uppdatera profilen för en specifik klient med hjälp av dess webbplats (eller webbplatser). En sådan profil kan till exempel inkludera information om fritids- och underhållningspreferenser, konsumentintressen, yrke och annan demografi . Sådana profiler är av stort intresse för marknadsförare , anställda på reklambyråer och andra yrkesverksamma av detta slag. Beroende på användarvillkoren för specifika tjänster och lokala lagar kan sådana profiler säljas eller överföras till tredje part utan användarens vetskap.
Sociala nätverk bidrar också till avslöjandet av information , och erbjuder deltagarna att självständigt uppge en viss mängd personuppgifter om sig själva. Ovarsam hantering av kapaciteten hos sådana resurser kan leda till allmänhetens tillgång till information som användaren skulle föredra att dölja; bland annat kan sådan information hamna i fokus för huliganer eller dessutom cyberbrottslingar. Moderna sociala nätverk förser sina medlemmar med ett ganska brett utbud av profilsekretessinställningar, men dessa inställningar kan vara onödigt komplicerade – särskilt för oerfarna användare [22] .
Mellan 2005 och 2010 fördubblades antalet webbanvändare för att nå två miljarder [23] . Enligt tidiga studier 1998 och 1999 var de flesta befintliga webbplatser inte korrekt indexerade av sökmotorer, och själva webben var större än förväntat [24] [25] . Från och med 2001 har mer än 550 miljoner webbdokument redan skapats, varav de flesta dock fanns inom det osynliga nätverket [26] . Från och med 2002 skapades mer än 2 miljarder webbsidor [27] , 56,4 % av allt internetinnehåll var på engelska , följt av tyska (7,7 %), franska (5,6 %) och japanska (4,9 %). Enligt forskning som utfördes i slutet av januari 2005 identifierades mer än 11,5 miljarder webbsidor på 75 olika språk och indexerades på den öppna webben [28] . Och från och med mars 2009 ökade antalet sidor till 25,21 miljarder [29] . Den 25 juli 2008 meddelade Googles mjukvaruingenjörer Jesse Alpert och Nissan Hiai att Googles sökmotor hade upptäckt mer än en miljard unika webbadresser [ 30] .
Ordböcker och uppslagsverk | ||||
---|---|---|---|---|
|
Webb och hemsidor | |
---|---|
globalt | |
Lokalt | |
Typer av webbplatser och tjänster |
|
Skapande och underhåll | |
Typer av layouter, sidor, webbplatser | |
Teknisk | |
Marknadsföring | |
Samhälle och kultur |
semantisk webb | |
---|---|
Grunderna | |
Underavsnitt |
|
Ansökningar |
|
Relaterade ämnen | |
Standarder |
|
webbläsare (före 1996) | Tidiga|
---|---|
1991 | World Wide Web (Nexus) |
1992 | |
1993 |
|
1994 |
|
1995 |
|
1996 |
|
se även |