Hoofdstuk 5 Historiek. De Voorgeschiedenis



Dovnload 67.85 Kb.
Datum20.08.2016
Grootte67.85 Kb.
Hoofdstuk 5
Historiek.
5.1. De Voorgeschiedenis.
5.1.1. De voorlopers.
Het Chinees telraam is waarschijnlijk het eerste hulpmiddel dat gebruikt werd om rekenkundige bewerkingen te vergemakkelijken: het is alleen maar een geheugen om tussenresultaten van, door de mens uitgevoerde, berekeningen bij te houden.
In de 17e eeuw hebben, onafhankelijk, de Duitser Schikard en de Fransman Pascal rekenmachines gebouwd, die toelieten rekenkundige bewerkingen te verrichten, doch deze machines hadden noch geheugen om gegevens op te slaan, noch programmageheugen. De operator zelf moest de opeenvolging van bewerkingen bepalen en de tussenresultaten onthouden.
In het midden van de 19e eeuw heeft de Engelse wiskundige Charles Babbage de eerste volautomatische computer met geheugen voor tussenresultaten en geheugen voor instructies ontworpen. Deze computer "Analytical Engine" genoemd, was volledig mechanisch, maar jammer genoeg lag zijn verwezenlijking ver boven de mogelijkheden van de toenmalige techniek. Augusta Ada Byron heeft, in 1843, het eerste programma voor het "analytical engine" gepubliceerd.
5.1.2. De mechanografie.
Om de tien jaar wordt de bevolking van de Verenigde Staten geteld. In 1880 had deze operatie 7 jaar geduurd. Om de volkstelling van 1890 te vergemakkelijken had Herman Hollerith het gebruik van geperforeerde kartonnen kaarten voorgesteld. De verschillende gaten die door de volkstellers manueel aangebracht werden, konden met behulp van een elektromagnetisch toestel, totalisator genoemd, geteld worden. Dankzij deze methode nam de volkstelling van 1890 maar 2,5 jaar in beslag, ondanks dat het bevolkingscijfer 5 maal groter was dan in 1880. Tengevolge van dit succes richtte H.Hollerith de "Computing Tabulating and Recording company" op die in 1924 van naam zou veranderen om "International Business Machines" te worden.
Het gebruik van mechanografische apparatuur veralgemeende zich in de grote administraties tussen 1900 en 1950. Fabrikanten, zoals IBM, Sperry Rand, en, in Europa, Bull kenden een spectaculaire expansie.
De verschillende machines die in die periode aangewend werden zijn:

- de ponsmachine die toelaat kaarten te ponsen.

- de sorteermachine die toelaat geponste kaarten te sorteren in functie van de inhoud van een bepaald veld.

- de tabulator die toelaat de inhoud van ponskaarten uit te drukken op papier en eventueel zeer elementaire berekeningen uit te voeren op de geponste getallen.


5.1.3. De automatische rekenmachines.
Van 1935 tot 1946 is er veel werk, zowel theoretisch als praktisch, besteed aan het ontwerpen en het bouwen van automatische rekenmachines. Tengevolge de oorlogssituatie en het strategisch belang van krachtige rekenmiddelen was er weinig of geen contact tussen de verschillende groepen die werkzaam waren, met als gevolg gelijkaardige maar toch onafhankelijke ontwikkelingen.
In 1936 publiceerde een Engelse wiskundige, Alan TURING een artikel 'On computable numbers' waarin hij beroep deed op een programmeerbare automaat met programma geheugen, de Turing Machine, om bepaalde wiskundige stellingen te bewijzen. Turing machines werden nooit gebouwd maar zij hadden wel alle fundamentele kenmerken van hedendaagse computers.
In 1937 begon Howard Aiken aan de Harvard Universiteit een electromechanische rekenmachine te ontwerpen, die gebruik maakte van schakelelementen voor automatische telefooncentrales om decimale berekeningen te verrichten.

Deze machine werd gebouwd door IBM en aan de universiteit geleverd in 1944.


Ongeveer in dezelfde periode begon de Duitser Konrad Zuse een gelijkaardige machine te bouwen, maar tengevolge de bombardementen op Duitsland kon deze machine nooit afgewerkt worden. Lang na de oorlog werd ze wel gebouwd om in een museum te Berlijn tentoongesteld te worden.
In 1938 begonnen John Atanasoff en Clifford Berry aan de Iowa State University een elektronische rekenmachine te bouwen die gebruik maakte van het binaire stelsel en van een draaiend geheugen voor gegevens dat qua concepten als de voorloper van de moderne periferische geheugens, en zelfs van sommige centrale geheugens, kan beschouwd worden. Tengevolge de oorlog werd deze machine nooit volledig afgewerkt.
In 1942 werd door de Britse geheime diensten, in nauwe samenwerking met Alan TURING, COLOSSUS gebouwd teneinde de Duitse geheime codes te kraken. Dat was de eerste gigantische machine waarin meerdere duizenden radiobuizen als snelle schakelaars aangewend werden om vergelijkingen te maken. Colossus heeft een doorslaggevende rol gespeeld in wereldoorlog 2, onder meer door de Engelse Navy in te lichten over de positie van alle Duitse duikboten.

Jammer genoeg voor de rol van Europa in de naoorlogse computerindustrie is de ervaring die opgedaan werd bij de bouw van Colossus dertig jaar lang een militair geheim gebleven. Zelfs het bestaan van Colossus werd maar in de jaren zeventig vrijgegeven. In 1954 pleegde Alan TURING zelfmoord, waarschijnlijk tengevolge het extreme wantrouwen dat de Britse overheid vertoonde ten opzichte van een onorthodoxe, vrijdenkende mathematicus waarvan de ideeën staatsgeheimen geworden waren.


In 1943 begonnen J.Presper Eckert en John W.Mauchly in de Moore School of Electrical Engineering te Philadelphia aan de bouw van ENIAC, een elektronische rekenmachine bestemd voor het opmaken van artillerie tabellen. Sommige van de fundamentele ideeën van Eniac waren “geïnspireerd” door het werk van Atanasoff, aan wie Mauchly een bezoek bracht in 1941. ENIAC werd ingehuldigd in 1946, en wordt meestal, ten onrechte, beschouwd als de eerste grootschalige elektronische rekenmachine. Het bevatte 18,000 radiobuizen, het verbruikte 150,000 W, en het nam een vloeroppervlak van 180 vierkante meter in beslag. Het werd tot in 1955 gebruikt, hoofdzakelijk voor berekeningen die betrekking hadden tot de ontwikkeling van kernwapens.
In 1973 heeft een rechtbank in Mineapolis, na zeven jaren onderzoek, de ENIAC patenten van Eckert en Mauchly nietig verklaard en John Atanasoff uitgeroepen tot 'uitvinder van de elektronische computer'.

5.2. De eerste generatie computers.
5.2.1. De Von Neumann Computer.
Alle machines die tot 1945 gebouwd werden waren specifiek gericht naar het oplossen van een bepaalde taak, zij hadden geen programma geheugen. De ervaring opgedaan met ENIAC toonde echter vlug de noodzaak van middelen om snel de machine aan te passen aan nieuwe problemen. In 1945 stelde de Moore School for Electrical Engineering de constructie van een nieuwe computer (EDVAC) voor. Dit voorstel, ondertekend door John Von Neumann, een zeer befaamde fysicus van Hongaarse oorsprong die hoogleraar was in de Moore School, bevatte volgende beschrijving:

"De computer bestaat uit 4 delen:

1) een centraal geheugen dat het programma, de gegevens, de tussenresultaten en de resultaten van de bewerkingen kan bevatten.

2) een stuureenheid met een ordinaalteller om de instructies één voor één uit het geheugen te lezen en ze te doen uitvoeren;

3) een rekeneenheid die rekenkundige en logische bewerkingen verricht onder leiding van de stuureenheid, met gegevens afkomstig uit het geheugen.

4) in- en uitvoer apparaten die de communicatie tussen computer en gebruiker mogelijk maken."
Of dit de ideeën van Von Neumann zelf waren, of deze van Eckert en Mauchly, is niet duidelijk. De samenwerking tussen Eckert en Mauchly enerzijds en Von Neumann anderzijds kwam tot een einde wanneer Eckert en Mauchly een eigen computerfirma oprichtten in 1946 en patenten namen op de voornaamste ideeën die aan de basis lagen van de eerste computers. Von Neumann overleed in 1957, Mauchly in 1980 en Eckert in 1995. Tot het einde van zijn leven maakte Eckert gebruik van elke mogelijke gelegenheid om publiek te beweren dat alle ideeën in het Von Neumann voorstel afkomstig waren van Mauchly en hem.
5.2.2. De eerste verwezenlijkingen.
Tussen 1945 en 1950 werd de constructie van een groot aantal computers gestart in verschillende universiteiten:

- ACE (= Automatic Computing Engine) door A.Turing in de "National physics laboratory" in G.B. Dit project kwam nooit echt van grond tengevolge organisatorische problemen en de bureaucratische vrees dat iets van de Colossus ervaring aan de geheime diensten zou ontsnappen.

- EDVAC (= Electronic Discrete Variables Automatic Computer) door J.Mauchly en J.P.Eckert in Moore school for electrical engineering.

- EDSAC (= Electronic Delay Storage Automatic Computer) door M.V.Wilkes in de universiteit van Cambridge in G.B.

- Manchester Computer, door F.C.Williams in de universiteit van Manchester in G.B.

- IAS Computer, door J.Von Neumann in Princeton University.

- WHIRLWIND I door J.Forester in Massachusets Institute of Technology.
Met uitzondering van ACE dat veel ambitieuzer was, waren al deze ontwerpen sterk beïnvloed door het oorspronkelijke EDVAC voorstel van Von Neumann.
Al deze machines waren gekenmerkt door zeer kleine geheugens. De toenmalige geheugen technologieën (akoestische vertragingslijnen met kwik of geheugen kathode straalbuizen) waren inderdaad bijzonder duur en onbetrouwbaar.
5.2.3. De commerciële serie produktie.
In 1946 richtten J.P.Eckert en J.Mauchly hun eigen onderneming op die de eerste commerciële computer, UNIVAC I, ging bouwen. De eerste UNIVAC I werd geleverd in 1951. In 1952 deed IBM zijn intrede in de computermarkt met het model 701, dat een veel groter succes kende tengevolge een meer agressieve commerciële aanpak.
Qua technologie waren deze machines vergelijkbaar met deze die in universiteiten ontworpen waren.
Buiten absolute laders beschikten eerste generatie computers niet over besturingssystemen. Zij werden in machinetaal of in assembler geprogrammeerd.
5.3. De tweede generatie (1958).
5.3.1. Hardware.
De hardware van de tweede generatie was gekenmerkt door het gebruik van twee nieuwe componenten: de transistor verving de radiobuis als schakelaar in de stuur- en rekenkundige eenheden, en de magnetische ferrite ringetjes vervingen definitief de kwiklijnen en kathode straalbuizen in het centraal geheugen.

Door deze evolutie werden de computers een grootte orde goedkoper en betrouwbaarder, wat het bouwen van veel krachtigere machines mogelijk maakte.


5.3.2. Besturingssystemen.
De tweede generatie computers werd quasi uitsluitend in batch gebruikt, met monoprogrammatie besturingssystemen. In- en uitvoer van gegevens gebeurde met behulp van kaartlezers en regeldrukkers, systeem- en toepassingsprogramma’s bevonden zich op magneetbanden, of, in de meest geavanceerde centra, op magnetische schijven of cilinders. Het beheer hiervan gebeurde manueel door een operator die de gepaste magneetbanden installeerde of de adressen op disk invoerde.
5.3.3. Programmatie.
De grotere geheugencapaciteit maakte grotere programma's mogelijk, het schrijven van die programma's kon niet langer meer beschouwd worden als een verwaarloosbaar nevenaktiviteitje voor computer ontwerpers en gebruikers. Hogere talen drongen zich op.
In 1956 introduceerde IBM de programmeertaal FORTRAN die uitgevonden was door John Backus. Met FORTRAN (FORmula TRANslator) konden wetenschappers zelf de oplossing van wiskundige problemen programmeren, zonder alle details van de computer te kennen.
Een beetje later werd, op initiatief van Grace Hopper, de programmeertaal COBOL (Common Business Oriented Language) verplicht gemaakt voor alle computers die voor administratieve toepassingen door de Amerikaanse overheid zouden gekocht worden. Deze maatregel moest de vrije concurrentie tussen computerfabrikanten vrijwaren, door te vermijden dat administraties zouden verplicht zijn steeds bij dezelfde fabrikanten hun computers te kopen als gevolg van zware investeringen in computer gebonden assembler programma's.
In research middens ontstonden er twee programmeertalen die oorspronkelijk weinig succes kenden maar waarvan de concepten een belangrijke rol gingen spelen in de verdere ontwikkeling van de informatica. Dit zijn enerzijds ALGOL, de eerste taal die op een formele wijze gedefinieerd werd en die veel nieuwe taalconcepten invoerde, en LISP, de eerste niet imperatieve programmeertaal.
5.4. De derde generatie (1965).
5.4.1. Hardware.
Transistoren, die in tientallen duizenden gebruikt worden als schakelelementen in rekeneenheden en stuureenheden werden vanaf 1958 langs fotografische weg gemaakt op kleine plaatjes silicium (soms chips genoemd). Rond 1960 slaagde men erin meerdere transistoren, en hun doorverbindingen, samen op een enkel plaatje silicium te maken. Dit noemde men een geïntegreerde schakeling. Vermits de fotografische stappen nodig om één transistor of een geïntegreerde schakeling te maken quasi dezelfde zijn, wordt in feite de prijs van elke transistor gedeeld door het aantal transistoren per geïntegreerde schakeling. Daarbij kwam dat het gebruik van geïntegreerde schakelingen het aantal doorverbindingen tussen afzonderlijke componenten drastisch verminderde wat ook nog eens de montagekosten en de betrouwbaarheid ten goede kwam.
Vanaf 1965 werden de individuele transistoren in de centrale verwerkingseenheden vervangen door geïntegreerde schakelingen (waarin toen tientallen, en nu honderden duizenden transistoren in één enkele component samengebouwd zijn), met als gevolg een significante vermindering van de prijs en verhoging van de betrouwbaarheid, wat enerzijds tot gevolg had dat veel krachtigere computers ("Mainframes") konden gebouwd worden en anderzijds dat goedkope (~1 MF) kleine computers (minicomputers), in zeer grote reeksen gefabriceerd, op de markt verschenen.
Tengevolge de grotere afzet en verbeterde fabricatie methodes ging ook de prijs van de ferrite geheugens sterk omlaag.
De empirische wet van Herbert Grosch, die stelde dat de performantie van een computersysteem stijgt zoals het kwadraat van de prijs, was een voldoende motivatie voor het bouwen van steeds krachtigere computers en voor het centraliseren van alle informatieverwerking in een klein aantal gigantische "rekencentra".
Om voldoende werk in dergelijke centra te kunnen samenbrengen heeft men dan beroep gedaan op telecommunicatietechnieken en zgn. "time-sharing": Aan een grote computer werden een tiental in- en uitvoerstations op afstand aangesloten, en de computer verbond zich beurtelings, minstens één maal per seconde, met elk station. De totale verwerkingscapaciteit, en de kosten, konden dan verdeeld worden tussen de tien gebruikers. Deze kosten waren ongeveer drie maal lager dan indien elke gebruiker zijn eigen computer zou aangeschaft hebben, vermits een vertienvoudiging van het vermogen de prijs maar ongeveer drie maal verhoogde.
5.4.2. Besturingssystemen.
Systeemsoftware heeft een ware explosie gekend na 1965: teneinde een optimaal gebruik te maken van de nog zeer dure hardware gebruikte men meestal zeer complexe multiprogrammatie besturingssystemen die, voor performantieredenen volledig in assembler geschreven werden. Daar dergelijke programmatie techniek niet geschikt was om zeer grote programma's foutloos te verwezenlijken, en vele problemen inherent aan het beheer van multiprogrammatie nog niet helemaal begrepen werden, is het niet verrassend dat de besturingssystemen van de derde generatie eerder een slechte reputatie hadden qua betrouwbaarheid. Vooral bij interactief gebruik, wanneer uitbatingsincidenten rechtstreeks konden waargenomen worden door alle gebruikers, was deze situatie moeilijk aanvaardbaar.
In dezelfde periode werden minicomputers meestal interactief, met vereenvoudigde vormen van multiprogrammatie, gebruikt voor zeer specifieke taken, zoals het sturen van industriële fabrikatieprocessen of van complexe meetsystemen. In kleine bedrijven of in geïsoleerde afdelingen van grote bedrijven werden zij soms gebruikt als centrale computer, maar meestal was het besturingssysteem weinig aangepast voor dergelijk gebruik.
5.4.3. Programmatie.
De derde generatie computers waren getuigen van een zeer diepe crisis op het vlak van de programmatie: Eerst probeerde men de zeer krachtige derde generatie computers te programmeren zoals men tweede generatie computers had geprogrammeerd. Deze benadering leidde echter tot het spectaculair mislukken van vele grote automatiseringsprojecten. Dit deed vragen rijzen omtrent vele programmatie tradities en uiteindelijk kwamen er gans nieuwe programmeertechnieken (software engineering), ondersteund door nieuwe talen, uit de bus.
5.4.3.1. Verderzetting van de tweede generatie.
Teneinde de uitgebreide mogelijkheden van de nieuwe computers beter te benutten begon men met de bestaande programmeertalen uit te breiden (zo kreeg FORTRAN bijvoorbeeld nieuwe instructies om met schijfgeheugens te kunnen werken).
Er werden ook nieuwe talen ontworpen: BASIC voor het ontwikkelen van kleine programma's op time-sharing systemen, PL1 als een opvolger voor COBOL en FORTRAN om zowel administratieve als wetenschappelijke programma's te verwezenlijken en APL om time-sharing systemen te kunnen gebruiken als zeer krachtige programmeerbare tafelrekenmachines.
Tijdens de tweede generatie konden alleen maar relatief kleine programma's uitgevoerd worden. Deze programma's werden meestal in enkele dagen door één enkele persoon geschreven. Programmeerfouten waren bij dergelijke werkwijze geen echt probleem: wanneer er iets mis liep of wanneer resultaten ongeloofwaardig schenen las de auteur zijn programma eens aandachtig en vond hij de fout. Het is dus niet verrassend dat programmeertalen uit die periode geen bijzondere voorzieningen bevatten om fouten te voorkomen en hun detectie te vergemakkelijken.
5.4.3.2. De software crisis.
Derde generatie computers konden reusachtige programma's aan. Dergelijke programma's konden echter niet meer door één enkele persoon in een redelijke tijd geschreven worden en ploegwerk drong zich op. Met meerdere programmeurs aan één enkel programma werken stelde echter veel organisatorische problemen en bleek een belangrijke bron van moeilijk te verbeteren fouten te zijn. Ambitieuze projecten die na veel werk opgegeven werden omdat het niet mogelijk bleek alle fouten uit de programma's te krijgen waren niet uitzonderlijk.
Daarbij kwam er een nieuw probleem opduiken: het onderhoud van de programma's. Tweede generatie programma's werden meestal gebruikt door hun auteurs, die ze, zonder al te veel moeite konden aanpassen wanneer de gebruiksomstandigheden evolueerden. De veel omvangrijkere programma's van de derde generatie daarentegen werden meestal gemaakt door programmeurs die weinig afwisten van de toepassingen en afgewerkte programma's afleverden aan de gebruikers die ze besteld hadden. Dergelijke programma's vergden typisch veel onderhoud omdat ze niet perfect aangepast waren aan de wensen van hun gebruikers, en dat onderhoud was bijzonder duur en inefficiënt omdat de oorspronkelijke programmeerploeg meestal niet meer beschikbaar was voor het onderhoud.
5.4.3.3. Software engineering.
Ventilatie van kosten door organisaties die veel omvangrijke software ontwikkelden toonde aan dat 25% van de totale kost van een software produkt gespendeerd werd aan het testen en het verbeteren van fouten vóór de ingebruikname van de programma's en 50% aan hun onderhoud. Deze cijfers betekenen in feite dat 75% van de totale softwarekost gespendeerd wordt aan het wijzigen van programma's. Deze vaststelling heeft aanleiding gegeven tot een nieuwe benadering van het programmeren: in plaats van het accent te leggen op vernuftige truukjes om programma's kleiner en/of sneller te maken werd voortaan prioriteit geschonken aan eenvoud, duidelijkheid en modulariteit teneinde de programma's beter verstaanbaar te maken en alzo de kansen op fouten te verminderen en het wijzigen door mensen die weinig vertrouwd zijn met de programma's mogelijk te maken.
Nieuwe programmeertalen, zoals Pascal, werden ontworpen om programmeurs aan te leren hoe ze correcte en eenvoudig te onderhouden programma's moesten schrijven.
Bestaande programmeertalen zoals FORTRAN werden uitgebreid om het gebruik van de duidelijke constructies die door Pascal gepopulariseerd waren ook toe te laten.
5.5. De vierde generatie, (na 1972).
5.5.1. De hardware.
De vooruitgang in de technologie van geïntegreerde schakelingen liet vanaf 1972 toe de ferrite geheugens door geïntegreerde schakelingen te vervangen, met als gevolg een prijsvermindering voor geheugens met een factor 100 ongeveer (vandaag -1995- kan men 8.000.000 lettertekens (of 8 romans van Agatha Christie) opslaan in een geïntegreerde schakeling van ongeveer 1 cm2. Dezelfde vooruitgang liet ook toe volledige (kleine) computers te verwezenlijken onder de vorm van één of enkele geïntegreerde schakelingen (microprocessors), tegen uiterst lage prijzen (enkele honderden frank).
Deze evolutie had tot gevolg, enerzijds een enorme uitbreiding van de geheugen capaciteit van grote computers en anderzijds het aanwenden van computers in allerlei onverwachte toepassingen zoals vaatwasmachines, typemachines, benzinemotoren (elektronische injectie), remmen (ABS) enz..
5.5.2. Persoonlijke computers.
Zonder dat men op het technologisch vlak over een nieuwe generatie van computers kan spreken, moet men toch een zeer belangrijke evolutie die zich heeft voorgedaan in het begin van de jaren 80 vermelden: de opkomst van de microprocessors heeft het bouwen tegen zeer aantrekkelijke prijzen van kleine interactieve computers mogelijk gemaakt. Dergelijke "persoonlijke computers" hebben enerzijds de informatica binnen het bereik van kleine ondernemingen en particulieren gebracht, en hebben in veel ondernemingen de time sharing terminals, aangesloten op een grote computer, vervangen.

Het eerste bedrijf dat succesvol was in deze markt was Apple, dat met de Apple 2 computer de marktleider was van 1978 tot 1982. In 1981 heeft IBM echter de Personal Computer gelanceerd, die onmiddellijk een groot succes kende in de bedrijfswereld. Apple probeerde wel een tegenoffensief door de Macintosh, een computer met veel meer grafische mogelijkheden dan de toenmalige PC, op de markt te brengen maar toch is Apple er nooit in geslaagd opnieuw marktleider te worden, integendeel, het marktaandeel van de Macintosh is regelmatig blijven afnemen. Het succes van de PC tegenover de Macintosh is waarschijnlijk te wijten aan een verschil in handelsstrategie: Apple heeft met alle middelen andere bedrijven belet de Macintosh na te maken terwijl IBM initieel het namaken van de PC aanmoedigde. Daardoor zijn de prijzen van de PC veel sneller gedaald en is er veel meer PC software beschikbaar geworden. De strategie die de triomf van de PC heeft veroorzaakt is echter niet gunstig gebleken voor IBM, die vandaag zelf nog maar een klein deel van de PC markt heeft, en die nu een strategische alliantie heeft aangegaan met Apple om samen, met de nieuwe “Power PC” te proberen te overleven in de PC markt.


5.5.3. Besturingssystemen.
Toepassing van software engineering op besturingssystemen had tot gevolg dat zij eenvoudiger en vooral betrouwbaarder werden, terwijl batch uitbating meer en meer verdreven werd door interactief gebruik.
Het succes van het UNIX systeem is kenmerkend voor deze evolutie: oorspronkelijk was het een eenvoudig maar toch zeer krachtig, multiprogrammatiesysteem voor minicomputers, maar tengevolge zijn eenvoud en soepelheid werd het aangewend in een steeds ruimere gamma computers. Vandaag is het beschikbaar voor quasi alle computers, van de PC tot de grootste supercomputers. Dergelijke gestandaardiseerd besturingssysteem heeft het voordeel dat de gebruikers minder gebonden zijn aan een leverancier door software investeringen, vermits meestal software voor UNIX zonder veel moeite van één versie naar een andere kan overgedragen worden. Deze draagbaarheid heeft ook grote voordelen voor de software ontwikkelaars, vermits zij zich dan naar grotere marktsegmenten kunnen richten.
In de wereld van de PC’s is UNIX niet erg succesvol. Daar speelt MS/DOS met zijn WINDOWS uitbreiding een absoluut dominante rol. Vandaag is het een volwaardig multiprogrammatie systeem met een gebruikersvriendelijke grafische interface, maar een tiental jaren geleden was MS/DOS nog een bijzonder primitief systeem voor PC’s met een zeer beperkte capaciteit. Er voor zorgen dat dezelfde toepassingsprogramma’s bruikbaar blijven met opeenvolgende versies van de PC en het MS/DOS besturingssysteem is een bijzonder delicate opgave, die voor veel complexiteit en een beperkte betrouwbaarheid van het huidige systeem heeft gezorgd.
In veel gedistribueerde systemen vindt men UNIX in de servers en MS/DOS bij de cliënten. Deze heterogene combinatie is niet probleemloos, en zorgt voor niet verwaarloosbare onderhoudskosten, vooral wanneer opeenvolgende versies van UNIX en van MS/DOS+WINDOWS onafhankelijk van elkander moeten geïnstalleerd worden. Om deze moeilijkheden te voorkomen heeft Microsoft een volledig nieuw besturingssysteem, WINDOWS NT, ontwikkeld. Dit systeem, dat qua gebruikersinterface erg gelijkt op WINDOWS voor PC’s, is zowel voor de servers als de clients geschikt. WINDOWS NT kent een onbetwistbaar succes, maar het is nog te vroeg om te beweren dat, zoals Microsoft het hoopt, WINDOWS NT alle andere besturingssystemen van de markt zal wegvegen.
Daar ook UNIX, net zoals Windows, zich steeds meer richt naar computeronkundigen, wekken deze besturingssystemen meer en meer frustratie op bij programmeurs en informatici die, in geval van problemen, meer hebben aan de source code van het besturingssysteem dan aan de nonsens die door een of andere “Wizard” verkocht wordt. Om aan deze frustraties tegemoet te komen, en ook om het onderwijs rond besturingssystemen behoorlijk te ondersteunen, werd het LINUX systeem ontwikkeld. Het is een eenvoudig, doch krachtig, besturingssysteem voor PCs, sterk geïnspireerd door UNIX, dat volledig in source vorm beschikbaar is en dat voldoende eenvoudig is om competente programmeurs toe te laten efficiënt met hun PC te werken. LINUX kent een groeiend succes in de informatica industrie voor intern gebruik en in academische middens.
5.5.4. Programmatie.
De ware explosie van mogelijkheden, die de vierde generatie computers kenmerkt, heeft ook aanleiding gegeven tot veel ontwikkelingen op het vlak van de programmatie. Nieuwe derde generatie programmeertalen werden ontworpen en kennen veel succes, de niet imperatieve programmeertalen zijn niet langer research curiositeiten, maar worden effectief gebruikt, vierde generatie programmeertalen laten aan eindgebruikers toe zelf hun toepassingen te ontwikkelen en nieuwe programmeerstijlen maken produktievere en betrouwbaardere programmatie mogelijk.
5.5.4.1. De programmeertalen Ada en C.
Teneinde de risico's verbonden aan software te drukken, schreef het Amerikaanse departement van defensie in 1978 een internationale wedstrijd uit voor een nieuwe programmeertaal die het schrijven van betrouwbare software zou aanmoedigen. Quasi alle voorstellen waren gebaseerd op Pascal. De uiteindelijke winnaar, van Franse oorsprong, kreeg de naam Ada ter ere van Augusta Ada Byron, de eerste programmeur van de geschiedenis (zie 5.1.1). Deze taal, ondanks haar grote complexiteit, kent een groeiend succes in middens waar de betrouwbaarheid van software van doorslaggevend belang is.
Het besturingssysteem UNIX werd oorspronkelijk in assembler geschreven, maar toen het moest overgedragen worden in 1973 naar een andere computer, beslisten de auteurs van UNIX een hogere taal te creëren waarin ze die nieuwe versie zouden kunnen schrijven, om het overdragen naar nog andere computers te vergemakkelijken. Deze taal kreeg de naam C. Het is een taal die in sommige aspecten aan assembler doet denken, terwijl ze anderzijds toch een volwaardige hogere taal is. Ze laat goede programmeurs toe zeer produktief te werken, maar qua bescherming tegen fouten en onderhoudbaarheid is ze duidelijk minder performant dan Pascal en opvolgers van Pascal zoals Ada en Modula 2. Haar enorm succes is vooral te wijten aan het succes van UNIX in onderwijsmiddens: quasi alle Amerikaanse informatici hebben C moeten leren in het kader van cursussen over besturingssystemen die op UNIX gebaseerd waren.
5.5.4.2. Vierde generatie talen.
Om de produktiviteit van toepassingprogrammeurs op te drijven en zelfs om aan eindgebruikers de gelegenheid te geven zelf hun toepassingen te ontwikkelen werden toepassingsgerichte programmeertalen en omgevingen ontworpen. Een ietwat marginaal maar toch sprekend voorbeeld hiervan zijn de rekenbladen (“spreadsheets”) die reeds eerder (sectie 4.4) besproken werden. Deze omgevingen laten het programmeren van boekhoudkundige toepassingen op een zeer intuïtieve wijze toe. Centraal vindt men een tabel waarvan elk vakje een getal kan bevatten. De gebruiker kan de waarde van elk vakje invullen, of definiëren als een functie van de waarden die zich in andere vakjes bevinden. Telkens een nieuwe waarde in een vakje wordt ingevoerd wordt de inhoud van alle andere vakjes herrekend.
5.5.4.3. Object georiënteerd programmeren.
In traditionele programmeerstijlen worden de gegevens en de acties die op die gegevens moeten verricht worden afzonderlijk beschreven. Dit heeft tot gevolg dat wanneer men iets aan het formaat van de gegevens wenst te wijzigen dit gevolgen kan hebben doorheen gans het programma. Bij de object georiënteerde stijl integendeel beschrijft men de gegevens samen met de elementaire bewerkingen die men op die gegevens kan verrichten, en verwijst men uitsluitend naar de gegevens via deze elementaire bewerkingen. Op deze wijze, wanneer iets aan de gegevens gewijzigd wordt, moeten alleen de bewerkingen op deze gegevens aangepast worden en kan de rest van het programma ongewijzigd blijven.
Een voorbeeld uit een programma om deliberaties voor te bereiden zal dit alles verduidelijken.

In dat programma bestaat er een bestand met de namen en voornamen van alle studenten waarmee op verschillende plaatsen in het programma gewerkt wordt. Wanneer nu, tengevolge bv. van een belangrijke opkomst van buitenlandse studenten met, volgens Belgische normen, zeer lange namen, beslist wordt het aantal karakters dat voorzien is voor de naam te verhogen, moet men, in de traditionele benadering, doorheen gans het programma zoeken waar deze wijziging gevolgen zou kunnen hebben. In de object georiënteerde benadering daarentegen zal men enkele elementaire bewerkingen op het bestand gedefinieerd hebben. Deze bewerkingen zouden 'toevoegen van een student', 'opzoeken van een student' en 'verwijderen van een student' kunnen zijn. Wanneer nu het formaat van een naam gewijzigd wordt, zullen alleen de deelprogramma's die deze elementaire bevelen verwezenlijken moeten gewijzigd worden en zal de rest van het programma ongewijzigd kunnen blijven.


Het principe van object georiënteerd programmeren bestaat reeds vrij lang, maar de uitwerking ervan gebeurde hoofdzakelijk in het Palo Alto Research Center van XEROX, met de taal Smalltalk. De object georiënteerde programmeerstijl wordt heden meer en meer gebruikt, via Smalltalk of verschillende aangepaste dialecten van bestaande talen. In het bijzonder is C++ een zeer populair object georiënteerd dialect van de taal C. Ook de taal Ada werd aan de object georiënteerde stijl aangepast in de Ada 95 versie van die taal.
5.6. Bibliografie.
H.A. Grosch

High Speed Arithmetic: The Digital Computer as a Research Tool.

J.Opt.Soc.Am. 43,4. (Apr 1953).
P. Ein-Dor

Grosch's Law Re-revisted: CPU Power and the Cost of Computation.

Communications of the ACM, 28,2 (Feb 1985)
A. Hodges: Alan Turing - The Enigma of Intelligence

Unwin Hyman Ltd, London 1983.

ISBN 0-04-510060-8
H.D. Huskey, V.R. Huskey

Chronology of computing devices.

IEEE Transactions on computers, C 25,12, (Dec 1976)
C.R.Mollenhoff

Atanasoff, Forgotten Father of the Computer.

Iowa State University Press, 1988.

ISBN 0-8138-0032-3


Carlo GHEZZI & Mehdi JAZAYERI

Programming Language Concepts

John Wiley & Sons, 1982.

ISBN 0-471-86482-X


Bruce J.MacLennon

Principles of Programming Languages

CBS College Publishing.

ISBN 4-8337-0158-8




J.Tiberghien - Informatica I - Afgedrukt op: 20/08/2016 -

Deel 1, Hoofdstuk 5, pag.






De database wordt beschermd door het auteursrecht ©opleid.info 2017
stuur bericht

    Hoofdpagina