黄老师 发表于 2013-5-2 05:56:48

吉大13春《计算机应用基础(统考N)》第一章 计算机基础...

吉大13春《计算机应用基础(统考N)》第一章 计算机基础知识 课堂笔记
◆ 主要知识点掌握程度
重点掌握计算机发展的四个阶段,计算机的主要用途;重点掌握计算机的基本组成(硬件系统),以及每个组成部分的具体细节;以及重点掌握微机系统的各部分硬件概念及其组成。掌握微机的外围设备及各部分的用途;重点掌握计算机的软件系统,以及计算机语言的应用;重点掌握数据信息表示与存储方法及字符的编码。
◆知识点整理
一、计算机发展概况
(一).第一台计算机
世界上第一台电子数字计算机于1946年由美国宾夕法尼亚大学研制成功,取名为:ENIAC(埃尼阿克)。第一台计算机研制成功标志着人类已经进入了计算机时代。
美国的数学家冯•诺依曼对第一台实用计算机研究后提出了未来计算机的模型,它的核心思想有三点(比较重要)。
(1)计算机包含运算器、控制器、存储器、输入、输出设备,即由5个部件组成(说明一下:我们现在常把运算器和控制器合称为中央处理器CPU)。
(2)计算机采用二进制表示信息(或者表示数据)
(3)程序存储:把计算步骤(也叫程序)先存入内存,计算机不需要人工干预,会自动控制和执行所存入的程序。
其实我们现在所使用计算机仍然是冯•诺依曼结构计算机。
(二).计算机发展的四个阶段
第一代计算机:出现在1945年至1958年,主要使用电子管做基本器件,耗电量多导致器件发热量大,计算机工作速度慢,稳定性差。
第二代计算机:出现在1958年至1964年,主要使用晶体管做基本器件,体积小耗电省,运算速度明显提高。计算机进入了商业应用。
第三代计算机:出现在1964年至二十世纪70年代中期,主要使用中小规模集成电路。体积更小速度更快,并且价格也大为降低,使得计算机能够进入中小单位,扩大了计算机的应用范围和普及程度。
第四代计算机:二十世纪70年代中期以来,主要使用大规模及超大规模集成电路。而且电路集成度正以难以想象的速度发展着,每隔两三年就提高一倍。目前一块集成电路芯片上已可集成几千万个晶体管,两个晶体管之间的距离已近达0.13μm(10 -6)。微机的出现,使计算机的普及程度迅速提高,计算机已成为为大众服务的信息工具。
二、计算机系统
计算机系统由计算机硬件系统(物理设备)和计算机软件系统组成(程序等)。
中央处理器(CPU)、存储器和输入输出设备构成了计算机完整的电子设备。我们通常称之为计算机硬件。Windows 2000、Word等我们通常称之为计算机软件。一台完整的计算机必须要配备硬件和软件,两者缺一不可,它们构成了计算机系统。
软件是指使计算机完成某种特定任务所编制的程序以及有关的技术资料。通俗的说,软件是计算机完成指定工作的执行步骤和所需的数据。
(一)计算机基本组成
按照冯•诺依曼计算机模型,计算机由运算器、控制器、存储器和输入输出设备组成,各部件之间通过总线连接。在实际计算机中,运算器和控制器一般合起来组成中央处理器(CPU,Central Processor Unit)。
计算机中各部件是通过总线连接的。总线是各部件之间信息传送的公共通道,在物理上是一组导线。根据所传送信息的类型,可分为三类总线:
• 数据总线:各部件之间的数据传递通道。
• 地址总线:CPU用于指定内存的地址或输入输出接口的地址。
• 控制总线:CPU控制其它部件工作的信号线。
运算器:完成计算机中运算的部件。运算包括算术运算(如加、减、乘和除等)、逻辑运算(如逻辑与、或和移位)和比较判断等。运算器只能完成这些基本的运算功能,因为它是靠相应的电路部件来执行的,对复杂的式子、函数需分解成这些基本运算来实现。运算器内部主要包括算术逻辑部件、浮点运算器和若干寄存器。一般整数运算由算术逻辑部件完成,而浮点数的运算比较复杂,运算器中有专门的浮点运算器完成,寄存器是用于存储即将参与运算的数据、或运算过程中的中间结果的存储单元。
控制器是计算机的指挥、控制中心,主要控制、管理计算机系统各个部件协调一致地工作。当我们把要完成的工作以指令形式输入计算机,计算机就会逐条执行。控制器根据每一条指令的要求,发出一系列控制信号,指挥其它部件执行。比如是运算工作,它就向运算器发特定的控制信号;如果是从键盘输入数据,它将向键盘控制器发控制信号进行输入,然后再指令存储器予以保存。一旦完成一条指令的工作,控制器又会进一步发出控制信号,继续执行下一条指令。
运算器和控制器合起来称中央处理器。
存储器是计算机中用于存放信息的部件。存储器可分为两大类:一类是内部存储器(内存),另一类是外部存储器(外存)。内存储器是计算机主机的一个重要部件,用来存放当前正在使用的,或者随时要使用的程序或数据。内存大都以半导体作为介质。外存属于外部设备,包括磁盘、光盘、磁带等。
内存相当于人的大脑,由大量的“记忆细胞”组成,每一个“记忆细胞”是最基本的存储单元。在计算机中,规定每个存储单元保存8位二进制信息,通常也把8位二进制位称作一个字节(Byte)。计算机内存最多能保存的字节数叫存储容量。一般存储容量越大,能存储的信息就越多,计算机的整体性能就越好,运行速度就越快,目前普通的微型计算机的存储容量就可以达到上千亿个字节。由于存储器中单元数量巨大,为了方便度量,引入千字节(KB)、兆字节(MB)、吉字节(GB)和兆兆字节(TB)概念:
1KB = 1024字节 (103)
1MB = 1024KB = 1024×1024字节 ≈ 1百万字节(106)
1GB = 1024MB = 1024×1024KB = 1024×1024×1024字节 ≈ 10亿字节(109)
1TB = 1024GB = 1024×1024MB = 1024×1024×1024KB = 1024×1024×1024×1024字节 ≈ 10000亿字节(1012)
计算机在自动处理过程中可以随时向内存“存入”信息,也可以随时从内存单元中“取出”信息,“存入/取出”过程我们也常常称为对存储器进行“写/读”操作。当把新信息写入存储单元时,该单元原有的信息会被冲掉,而读操作不影响存储单元的原有内容。
以上所说的内存都是指随机存取存储器(RAM,Random Access Memory),即任何时候都能对存储器写信息或读信息,但工作时需要电源来维持信息的保存,换句话说,一旦停电或关机,内存中的信息不再存在,所以RAM中的数据需及时保存到磁盘等外存上去。
另外还有一类能长久保存信息的存储器叫只读存储器(ROM,Read Only Memory),即使没有电源的支持,ROM中的信息也能一直保存。但ROM一般只能读信息,而不能任意写信息,需要在特定条件下才能把信息写到ROM中。因此ROM只能保存一些不会发生变化的系统程序或配置信息。
运算器、控制器和内存储器合起来常被称为计算机主机,但它还不能组成完整的计算机。只有加上输入输出设备,计算机才完整。由于输入输出设备不包括在主机中,我们常把它们称为外围设备。主要的输入输出设备有:
1. 输入设备包括:键盘、鼠标、扫描仪(图像输入)等。
2. 输出设备包括:显示器、打印机、绘图仪等。
3. 外存储器:通过磁或激光为媒介的信息存储部件。包括应磁盘、软磁盘、磁带、光盘等。它们既可以做输出设备,保存信息,也可以做输入设备,供主机取出信息。它们与内存储器的根本区别在于它能长久保存,不存在掉电丢失信息的问题,当然存取的速度远慢于内存。
(二)计算机基本工作原理
按照冯•诺依曼计算机模型,人首先要把一系列要求告诉计算机,即向计算机发出一系列指令,存入计算机存储器中,然后由计算机自动执行,这就是冯•诺依曼的程序存储工作原理。
当设计师设计计算机的中央处理器(CPU)时,首先要设计能让计算机硬件识别、且与计算机电子部件工作直接相关的一套指令——称为指令系统。其中每一条指令都对应计算机中的一个最基本的动作。由于计算机的电路执行只能以二进制的形式,所以每一条指令要定义其二进制的表示形式。一旦计算机完成制造,人们就可以通过输入二进制指令让计算机工作。
一般来说,计算机的指令系统应包含以下几类指令:
1. 数据传送类指令:用于把数据传送计算机的其它部件上。比如把数据从存储器传送到运算器,供运算使用。
2. 运算类指令:包括加、减、乘、除、移位等运算的指令。
3. 程序控制类指令:他们可以改变程序执行的顺序,使计算机能够进行一些逻辑判断,从而对不同的情况,转到不同   的程序位置进行处理。
4. 输入输出类指令:通过它计算机可以从外围设备中获取信息,或把运算的结果送到外围设备上输出。
5. 控制和管理机器的指令:包括停机、启动、复位、清除等与计算机运行过程有关的指令。
对于一条具体指令的执行,CPU一般需要如下步骤:
1. 取指:从存储器取出需执行的指令到CPU内部指令寄存器中。
2. 译码:对指令寄存器中的指令代码进行分析,以确定指令的功能。
3. 执行:根据译码的结果,对执行部件发出控制信号。如果执行AX ← AX + BX,则分别向寄存器AX、BX和运算器发控制信号,令运算器取得两个操作数再相加,然后把运算和送回AX。
“取指——译码——执行”这样的过程周而复始,不断重复,一直执行到停机指令为止。
三、微机硬件系统
一个完整的微型计算机系统,同样包括硬件系统和软件系统。如图3 所示。
微型计算机系统 硬件 主机 CPU 控制器,运算器
   内存储器 SDRAM、DDRAM
外部设备 输入设备 键盘、鼠标、扫描仪
   输出设备 显示器、打印机、音箱
   外存储器 硬盘、软盘、光盘
连接部件 总线、接口
软件 系统软件 操作系统 MSDOS、Windows、Linux、Max OS
   语言系统 Fortran、PASCAL、Java、BASIC 、C、C++等
   支撑软件 故障诊断、磁盘优化等
应用软件 办公自动化
辅助设计(CAD)、辅助制造(CAM)、辅助教学(CAI)
信息管理、数据库
科学计算
其它各应用领域软件
图3 计算机系统
目前微机系统的发展主要由微处理器和操作系统决定,而这两方面基本上被Intel公司的奔腾(Pentium)芯片和Microsoft公司的Windows视窗操作系统所主宰。所以有人戏称当前的微机是Wintel计算机。
(一)微机硬件组成
从图3可以看到,微机硬件系统包括:微处理器、内存和有关输入输出部件。
1、微处理器
衡量微处理器的性能,主要考虑以下性能指标:
字长:字长是计算机CPU能直接处理二进制数据的位数,它对程序的执行速度有很大影响。一般来说,字长越长,运算精度越高,处理速度越快,但价格也越高。386芯片以前是16位字长,386以后直到现在的Pentium芯片字长均为32位。Intel和AMD公司亦在2003年推出了它们的最新的64位CPU芯片。
主频:主频是指微处理器的工作频率。由于CPU和计算机内部的逻辑电路均以时钟脉冲作为同步信号触发电字器件工作,所以主频在很大程度上决定了计算机的工作速度。微机出现的早期,微处理器芯片的主频只有10MHz~30MHz,而今Intel公司的Pentium4系列中拥有最高主频的是3.4GHz 的Pentium 4 Prescott 处理器和Pentium 4 EE(Extreme Edition)处理器。
外频:外频指微处理器与微机主板上其它部件交换信息的工作时钟频率。外频通常比主频要小得多,它是整个系统的基本工作时钟。而微处理器的主频往往是外频的数倍,其它硬件部件的工作频率也与外频有一定的比例关系。
倍频:原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频=外频╳倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。提高系统外频(超频)可以提高整个电脑的性能,但提高外频必然将改变其它各分系统时钟频率,影响各分系统的实际运行情况,如果某些硬件部件不支持超频,则可能导致整机无法正常启动,甚至烧坏硬件部件。所以要慎重对待超频。
缓存(Cache):以前CPU进行处理的数据信息基本上都是直接从内存中调取的,但CPU的运算速度要比内存快得多,两者工作速度不匹配,慢速的内存拖了整机速度的后腿。为解决这个矛盾,设计人员就在CPU和内存之间放置了一个高速缓存器,工作速度接近于CPU,由于它的成本很高,单元数量较少,只能用于存储CPU经常使用的数据和指令。通过提高数据和指令的命中率来提高数据传输速度。由于缓存器的大小和它的存取速度成反比,一级缓存为了和CPU的速度不至于相差太大,所以设计的数量不多,为解决不够用的矛盾,设计CPU人员在一级缓存后面添加了第二级缓存。所以现在CPU缓存一般可分一级缓存和二级缓存两种。Intel Pentium处理器提供16KB 一级缓存(L1 Cache)和512KB二级缓存(L2 Cache)。CPU在读取数据时,先在L1中寻找,再从L2寻找。
内存总线速度(Memory-Bus Speed):就指CPU与第二级高速缓存(L2)和内存之间数据交流的速度。
扩展总线速度(Expansion-Bus Speed):扩展总线是CPU与外部设备的桥梁。扩展总线速度是指CPU与扩展设备之间的数据传输速度。
地址总线宽度:简单的说是CPU能使用多大容量的内存,可以进行读取数据的物理地址空间。
数据总线宽度:数据总线负责整个系统的数据流量的大小,而数据总线宽度则决定了CPU与二级高速缓存、内存以及输入/输出设备之间一次数据传输的信息量。
生产工艺:在生产CPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。其生产的精度以微米(mm)来表示,精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高CPU的集成度,CPU的功耗也越小。这样CPU的主频也可提高,在0.25微米的生产工艺最高可以达到600MHz的频率。而0.18微米的生产工艺CPU可达到G赫兹的水平上。Pentium4使用0.13微米生产工艺。
2、存储器
计算机中保存信息的部件分内存储器和外存储器。
内存储器,它是微型计算机主机的一个组成部分,用来存放当前正在使用的,或者随时要使用的程序或数据。对于内存,CPU可以直接对它进行访问。
微型计算机的内存储器一般采用半导体存储器。这种采用大规模、超大规模集成电路工艺制造的半导体存储器,具有密度大、体积小、重量轻、存取速度快等优点。内存储器按其性能和特点又可分为只读存储器ROM和随机存取存储器RAM两大类。
一般微机中使用的内存都是动态随机存取内存(DRAM),其工作原理是靠电容存储数据,其芯片制作的集成度很高,价格低廉,但存取速度稍慢些。目前微机中主要使用SDRAM(Synchronous DRAM)、DDR SDRAM(Double Date Rate,双数据率SDRAM)。
(1) SDRAM:Synchronous Dynamic RAM,同步动态内存。带宽64bit,工作电压为3.3V。
它的工作原理是将DRAM与CPU以相同的时钟频率进行控制,使RAM和CPU的外频同步。
(2)DDR SDRAM:Double Data Rate SDRAM,双倍数据频率SDRAM。DDR不支持3.3V电压的LVTTL,而是支持2.5V的SSTL2标准。它的工作原理是在SDRAM的基础上,利用时钟脉冲的上升沿和下降沿传输数据,因此不需提高工作频率就能成倍提高DRAM的速度,而且制造成本与SDRAM相近。
所谓双通道技术,简单来说,就是芯片组可以在两个不同的数据通道上分别寻址、读取数据。这两个相互独立工作的内存通道是依附于两个独立并行工作的。位宽为64-bit的内存控制器下,通过使用双通道技术可以使普通的DDR内存可以达到128-bit的位宽,如果是DDR400的话,双通道技术可以使其达到DDR800的效果,内存带宽增加一倍。
衡量内存的指标主要由两个:存储容量和存取时间。
存储容量:微机中可供微处理器使用的最大存储字节数,它的大小直接影响微机的运行速度。
存取时间:指微处理器从内存中存取数据所需要的时间。
3、微机主板
微机中除外围设备以外,主要硬件部件都集中到一块大电路板上,这块大电路板称作为主板。微处理器、内存条和外围设备接口卡都是插在主板上,当然为了把这些部件有机地连接起来,主板需要有配套的辅助连接电路。
1. CPU插座:
不同的CPU型号,其插座形式各异,主要有以下几种:
• Slot 1:Intel专为Pentium2而设计的一种CPU插座,它是一狭长的242针脚的插槽。
• Socket 370:Intel为Celeron系列而设计的CPU插座,成本降低。支持VRM8.1规格,核心电压2.0V左右。
• Socket 370 II:Intel为Pentium3和Celeron2设计的,支持VRM8.4规格,核心电压1.6V左右。
• Slot A:AMD公司为K7系列CPU定做的,外形与Slot 1差不多。
• Socket A:AMD专用CPU插座,462针脚。
• Socket 423:Intel专用在第一代Pentium4处理器的插座。
• Socket 478:Willamette内核的Pentium4处理器专用的CPU插座。
• Socket 939:AMD为Athlon 64处理器定制的插座。
2. 内存插槽
• 主板上有专用内存条插槽,只要购买通用的内存条,插上即可使用。目前有两种:
• SIMM(Single-In-line-Memory-Modules),72线结构内存插槽,现在已经非常少见。
• DIMM(Dual-Inline-Memory-Modules),168线结构内存插槽,是现在的主流配置。
3. 主板控制芯片组
• 主板控制芯片组是安装在主板上协助CPU完成PC各种功能的大规模集成电路,主板采用芯片组的类型直接影响电脑整机的性能。如果说CPU是计算机的大脑,主板芯片组就像是计算机的小脑和延髓,芯片组协调着计算机各部分的工作。
• 芯片组是主板的关键部件,它被固定在主板上,不能像CPU、内存等其他部件那样进行简单的调换升级。它控制和协调整个计算机系统有效运转,决定计算机系统各个部件的选型;也就是说芯片集一旦被确定,整个系统的定型和选件变化范围也势必将被确立。
• 目前主流的芯片组是南北桥架构的,其中北桥就是主板上离CPU最近的一块芯片,负责与CPU的联系并控制内存、AGP显卡、PCI总线数据在北桥内部传输;而南桥是主板上另一块主要芯片,主要负责I/O接口以及IDE磁盘设备的控制等。
4. 磁盘接口插座
• 主要指连接硬盘、光驱和软驱的电缆插座。在微机中,主板主要采用IDE接口。
• IDE(Integrated Device Electronics):一种磁盘驱动器的接口类型,也称为ATA接口。是由Compaq和Conner共同开发并由Western Digital公司生产的控制器接口,现已作为一种接口标准被广泛的应用。一般主板最多可连接两个IDE接口设备。
• EIDE(Enhanced IDE增强性IDE):是Pentium以上主板必备的标准接口。主板上通常可提供两个EIDE接口,每个EIDE接口又可以接两个磁盘驱动器。在Pentium以上主板中,EIDE都集成在主板中。
5. 显卡插槽
• 显示器是任何一台计算机必配的设备,与之对应,主板上必须插一块显示驱动卡(简称显卡),作为计算机主板与显示器的连接桥梁。主板上设有一个专用显卡插槽。目前一般微机的显卡都是以AGP方式。AGP插槽(Accelerated-Graphics-Port:加速图形端口)是为提高视频带宽而设计的总线结构。它将显示卡与主板的芯片组直接相连,进行点对点传输。但是它并不是正规总线,因它只能和AGP显卡相连,故不具通用和扩展性。AGP标准参数如下:
AGP标准 总线传输率 工作频率
AGP/AGP 1X 266MB/s 66MHz
AGP 2X 532MB/s 133MHz
AGP 4X 1.06GB/s 266MHz
AGP 8X 2.1GB/s 533MHz

6. PCI插槽:PCI总线(Peripheral Component Interconnect:外部设备互连)属于局部总线,是由PCI集团推出的总线结构,对硬件的“即插即用”有较好的支持。它具有133MB/S的数据传输率及很强的带负载能力,可支持10台外设,同时兼容ISA、EISA总线。目前PCI插槽是声卡、内置调制解调器(Modem)、网卡等板卡的主流标准接口插槽。
7. SCSI(Small Computer System Interface,小型计算机系统接口),它是由美国国家标准协会ANSI公布的接口标准。SCSI最初的定义是通用并行的SCSI总线。SCSI总线自己并不直接和硬盘之类的设备通讯,而是通过控制器来和设备建立联系。一个独立的SCSI总线最多可以支持16个设备,通过SCSIID来进行控制。
8. 端口
端口是接口卡与外设的连接口,微机中主要包括如下几种端口:
USB(Universal Serial Bus通用串行总线):它不是一种新的总线标准,而是电脑系统接驳外围设备(如键盘、鼠标、打印机等)的输入/输出接口标准。是由IBM、INTEL、NEC等著名厂商联合制定的一种新型串行接口。它由两根数据线,一根5V电源线及一根地线组成。
使用USB接口可以连接多个不同的设备,而过去的串口和并口只能接一个设备,因此从一个设备转而使用另一个设备时不得不关机,拆下这个,安上那个,开机再使用,USB则为用户省去了这些麻烦。除此之外,USB还支持热插拔。在软件方面,USB设计的驱动程序和应用软件可以自动启动,无需用户做更多的操作,这同样为用户带来极大的方便。USB成为了目前微机中最常用的连接端口,几乎每一种外设都有USB的连接方式,包括键盘、鼠标、打印机、优盘、磁盘、扫描仪、数码相机等。
速度快是USB技术的突出特点之一。USB1.1接口的最高传输率可达每秒12Mb,比串口快了整整100倍,比并口快十几倍。而USB2.0接口的最高传输率达到了每秒480Mb
IEEE1394:IEEE1394又称为Firewire(火线)或P1394,它是一种高速串行总线,现有的IEEE1394标准支持100Mbps、200Mbps和400Mbps的传输速率,将来会达到800Mbps、1600Mbps、3200Mbps甚至更高,如此高的速率使得它可以作为硬盘、DVD、CD-ROM等大容量存储设备的接口。IEEE1394将来有望取代现有的SCSI总线和IDE接口,但是由于成本较高和技术上还不够成熟等原因,目前仍然只有少量使用IEEE1394接口的产品。
并口:就是平常所说的打印口,但是它并不是只能接打印机和鼠标,它还可以接MODEM,扫描仪等设备。
COM端口:一块主板一般带有两个COM串行端口。通常用于连接鼠标及通讯设备(如连接外置式MODEM进行数据通讯)等。
PS/2口:是一种鼠标/键盘接口,一般说的圆口鼠标就接在PS/2口上。
微机一般把上述部件以及电源箱、硬盘、软驱和光驱装在一个主机箱中,然后配上显示器、键盘和鼠标,构成了基本的微机配置。
四、微机的外围设备
微机的常用外设包括:显示器、键盘、鼠标、磁盘、光驱和打印机等。
(一) 显示器
显示器是微机中必不可少的一个设备。早期的显示器,由于采用的都是荫罩式显像管,它的表面呈球面,容易造成图像失真,还很容易造成反光现象等。1994年出现了平面直角显示器。其显像管的曲率相对球面显像管大大减小,屏幕表面接近平面,显示器的显示质量有了较大提高。
早期的显示器采用模拟调节方式,不支持即插即用功能,显示器的相关设置无法保存到系统中。随着操作系统的成熟,视频电子标准协会(VESA)的显示数据通道协议(DDC)允许显示器和主机之间通过数据通道进行信息交换,实现了操作系统对显示器的即插即用,实现了显示器的数控调节。
对普通使用者来说,首先关心的是显示器屏幕的大小。衡量显示器性能还有一些非常重要的参数:
1. 扫描方式:显示器的扫描方式分为“逐行扫描”和“隔行扫描”两种。逐行扫描比隔行扫描拥有更稳定显示效果。
2. 分辨率:我们通常所看到的分辨率都以乘法形式表现的,比如1024*768,其中“1024”表示屏幕上水平方向显示的点数,“768”表示垂直方向的点数。显然,所谓分辨率是指画面的解析度,由多少象素构成,数值越大,图像也就越清晰。
3. 点距(Dot Pitch):点距是指显示屏上相邻的两个象素点之间的距离(即相邻的同基色点之间的中心距离)。在显示屏幕大小一定的前提下,点距越小,则屏幕上的象素排列越紧密,图像就越细腻。
4. 场频(Vertical Scanning Frequency):场频又称为“垂直扫描频率”,指每秒钟屏幕刷新的次数,以Hz(赫兹)为单位。扫描频率过低会导致屏幕有明显的闪烁感,即稳定性差,容易造成眼镜疲劳。
(二) 磁盘
普通微机上一般配有两种磁盘:软磁盘和硬磁盘。他们最基本的工作原理,是把带有磁介质的塑料圆盘由马达带动高速旋转,另有磁头浮在旋转的盘片上存取信息。
对软磁盘来说,盘片是可更换的,因此严格地说,微机上提供的是软磁盘驱动器(简称软驱),它不带盘片,使用时需把软盘片插入软驱。硬磁盘是计算机不可缺少的外部存储设备,包括操作系统在内的各种软件、程序、数据都需要保存到硬盘上。
(三) 光驱
光驱的工作过程与磁盘相似,但它靠激光头聚焦透镜读取数据。由马达带动光盘转动,步进电机带动激光头组件移动到光盘数据处,聚焦透镜将数据反射到接收光电管,再把数据处理后传送给微机系统。光驱和主板的连接也是通过IDE接口。
(四) 打印机
打印机是计算机的重要输出设备,可把计算机中的文字、图片等打印在纸上。常用的打印机有三类:针式打印机、喷墨打印机和激光打印机。
1. 针式打印机
它是最传统的打印机,目前一般采用24针打印机。当打印一个汉字时,主机向打印机传送汉字国际码,经打印机内识别处理,得到对应的汉字字形点阵码,再由打印头控制与驱动电路,激励打印针线圈,打印针受到激励驱动后冲击打印色带,从而在打印纸上打印出所需的汉字。打印图形过程相似。
2. 激光打印机
激光打印机是利用电子成像技术进行打印的。当调制激光束在硒鼓上沿轴向进行扫描时,按点阵组字的原理,使鼓面感光,构成负电荷阴影,当鼓面经过带正电的墨粉时,感光部分就吸附上墨粉,然后将墨粉转印到纸上,纸上的墨粉经加热熔化形成永久性的字符和图形。
3. 喷墨打印机
目前喷墨打印机按打印头的工作方式可以分为压电喷墨技术和热喷墨技术两大类型。(1) 压电喷墨打印机:将许多小的压电陶瓷放置到喷墨打印机的打印头喷嘴附近,利用压电陶瓷在电压作用下会发生形变的原理,在工作中,适时地把电压加到压电陶瓷上,压电陶瓷随之产生的伸缩使喷嘴中的墨水被喷出,从而在纸上形成一个细小的墨点,众多墨点排列起来就构成了图案或字符。
(2) 热喷墨打印机:热喷墨技术是靠电能产生的热,将喷头管道中的一部分液体气化,形成一个气泡,并将喷嘴处的墨水顶出喷到输出介质表面,形成图案或字符。热喷墨打印机的打印分辨率不如压电喷墨打印机好。
五、微机软件系统
(a) 操作系统:它主要功能是:对CPU进行管理、对文件系统进行管理、对存储器进行管理、对输入输出设备进行管理等。常用的操作系统有: DOS、Windows、Linux、Unix等。
(b) 语言系统:语言处理程序,它也属于系统软件。
   计算机语言系统
   计算机语言的发展有一个过程,如下:
 机器语言(被认为是第一代):什么是机器语言?计算机能直接识别的语言叫做机器语言,书上定义为:指令代码组成的语言称为机器语言,它是用一串二进制代码表示的,例如,1000101010001011可看做是一条机器指令代码,每一位上不是“1”就是“0”,该二进制指令代码计算机是能识别的,它知道是进行什么样的操作。
 汇编语言(被认为是第二代):为了便于记忆,将机器语言符号化,这样就出现了汇编语言。但用汇编语言写的源程序还需要用“汇编程序”将之“翻译”为机器指令代码,计算机才能执行。
 高级语言(第三代):它非常接近人的自然语言,(例如:if …. Then …. ),现在有多种高级语言:Basic,C, C ++,Java等。使用高级语言编写的程序也称为“源程序”,它要经过编译生成目标程序,然后经过“链接”才生成可执行程序(其扩展名是.exe),这样处理过的代码就是“机器指令代码”。
 第四代语言-----非过程化语言,即面向对象的语言。
六、多媒体计算机
计算机多媒体是指把文字、图形、动画、声音等有机地结合起来,集信息处理、传输与应用的综合系统。使计算机具有综合的人机交流的信息媒体。这样,人们能以更自然和更加“人类”化的方式使用信息,信息的表现也变成了声图文并茂。因此,换句话说,多媒体也就是媒体的多样化。
多媒体计算机技术为了表现各种“表示媒体”,集成了解决媒体的表示、显现、存储和传输各方面技术。另外它也是多种信息媒体交互的综合,使人与计算机之间的交互更方便、更有效。因此,多媒体计算机技术的最大特点就是集成性和交互性。
多媒体技术已被广泛地用于各个领域,如信息管理、宣传广告、教育与训练、演示系统、咨询服务、电子出版物、视频会议、家庭、通信等。
七、信息表示与存储
(一)数值在计算机中的二进制表示
1.数的表示
(1)十进制数:在日常生活和工作中人们多半采用十进制数,十进制的特点是:
 它有10个记数符号(记数符号又称为数码),分别是:0,1,2,3,4,5,6,7,8,9;数码的个数定义为基数,因此十进制数的基数是10。
 “逢十进一”。即没有“十”这个数码,“十”是用1和0两个数码表示的。
(2)二进制数:出于设计和制造计算机的考虑(例如:数的运算法则和实现的设备等问题),计算机是采用二进制数进行运算的(即用1和0两个数码来表示数据并进行运算),二进制数特点是:
两个数码:0和1,因此其基数为2
 “逢二进一”。思考:二进制数制中,10相当于十进制数制中的2。
计算机学科中还常用到八进制数和十六进制数,因此:
(3)八进制数:其特点是:
 有八个数码:0,1,2,3,4,5,6,7。
 “逢八进一”。因此八进制数制中的10相当于十进制数制中的8。
(4)十六进制数:其特点是:
 有十六个数码:0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F。
 “逢十六进一”。因此十六进制数制中的10相当于十进制数制中的16。
Windows操作系统带上了一个附件“计算器”程序(Calc.exe)如下:

对于十六进制多说两句,根据定义,十六进制的数码A相当于十进制中的10;十六进制的数码 B 相当于十进制中的11,其余可依次类推,换句话说,要记住:
2.不同进制数之间的转换:
(1)二进制、八进制、十六进制数转换为十进制数:可以采用一个统一的方法(即把它展开写成一个多项式和的形式):
还有一种表示方法也记一下:二进制、八进制、十进制和十六进制数可分别用字母B、O、D和H来表示,
具体展开方法:习惯上从左边最高位开始写第一项,在这里的最高位数码是1,则用1乘以基数为2的3次方表示(即为:1×23),怎么确定次方呢?由该位所在的位数减1构成;再写展开式的第2项(次高位):该位的数码1乘以2的2次方(即为:1×22);写第3项:用第3个位置的数码0乘以2的1次方(0×21)表示,最后是第4项:(1×20),把展开后的数用十进制运算法则进行计算所得的结果如下:
    特别注意,如果是八进制转换为十进制,则方法与上面介绍的相同。但是,不再用的2的几次方表示,而是用8的几次方表示;同理:十六进制转换为十进制,是用16的几次方表示。
(2)十进制整数转换为二进制整数:
   其方法是采用“除2取余数法”,例如,13用2去除,得到余数是1,同理,将得到的商6再除以2余数是0,再用2去除得到的商3其余数为1…..就这样依此类推直到商为0为止,从而得到了一列余数。
注意:该一列数的下面是二进制数的高位,上面是低位,因此结果是:(13)10=(1101)2 。同理,十进制数也可转换为八、十六进制数,即用待转换的十进制整数连续除以8或16。
(3)二进制与八、十六进制整数之间的转换:
每1位十六进制数可以用4位二进制数来表示;每1位八进制数可以用3位二进制数来表示。
16进制 2进制8进制 2进制
0 00000 000
1 00011 001
2 00102 010
3 00113 011
4 01004 100
5 01015 101
6 01106 110
7 01117 111
8 1000   
9 1001   
A 1010   
B 1011   
C 1100   
D 1101   
E 1110   
F 1111   
(4)二进制数运算法则
   主要是二进制加法,二进制采用“逢二进一”, ,如下:(记住:逢二进一可以立竖式计算 )
(二)字符的编码
一个数值在计算机中用二进制形式表示,那么如何存储或处理英文字母或其他字符(包括汉字)呢?即通过编码技术来解决文字符号问题。
1.ASCII编码:
   目前,大多数计算机采用“ASCII”码作为字符编码。ASCII码即“美国信息交换标准码”,正好是128个字符,因为:27=128,所以ASCII码采用了7位二进制编码,可以表示128个字符。这些字符中包括:
(a)10阿拉伯数字0~9
(b)26个大写英文字母
(c)26个小写英文字母
(d)32个标点符号和运算符
(e)34个控制符。
下面的规律要求记住:
(1)在标准ASCII编码表中,数字符号、大写英文字母和小写英文字母的编码从小大的次序是:数字、大写英文字母、小写英文字母。
(2)在大写或小写字母中,编码的次序按ABC字母顺序编的
(3)“0”字符的编码是48,则可以推出“1”是49,“2”是50,直至“9是57”。
(4)如果知道大写字母“A”是65,则可推出“B”、“C”….。如果有人告诉你小写的“a”是97,则可推出“b”、“c”….。
    注意,ASCII编码是7位的,由于计算机内部表示字符信息至少要用8位二进制数表示(即一个字节),所以必须将它扩展到8位,一般是在第8位加一个0,这样就构成了一个字节,ASCII编码扩展为8位的特点是最高位为0。
2.汉字编码:
    我国采用GB2312-80汉字标准码,规定为:用两个ASCII字节码(即已经扩充为8位的ASCII码)来表示一个汉字,因此一个汉字的编码是2个字节。但有一个问题要解决,汉字编码是在扩展的ASCII编码基础上产生,在机器内部显然会与ASCII码混淆,怎么办?因此人为地将每个字节的最高位由“0”改为“1”。例如:“嘉”的国标码如下:
00111100 01001110
为了不与原由的ASCII字节码混淆,就分别把两个字节的最高位0改为1,得到了汉字“嘉”在计算机的内部的存储码,这个存储码又称为汉字的机内码。如下:
1011110011001110
补充知识:
(1)汉字的国标码,或者说汉字国标码对应的存储码(即汉字的机内码)是唯一的。
(2)汉字的输入码不是唯一的。只要举个例子就清楚:汉字的输入方法很多(例如有五笔字型输入法、拼音输入法等),它们都对应自己的输入码,当然不唯一。但是进入了机器内部后都必须转换为汉字的国标码或者说汉字的机内码。
汉字的输入有多种方法,常见的输入法大致可以分为两大类:
1)按字音输入:如各种拼音输入法。
2)按字型输入:如五笔字型输入法。还有一些输入法有机地结合字音和字型的长处。但不管使用何种输入方法,在计算机内部都是以相同的标准代码存储。
例如:汉字库中的“字形码”如“嘉”字占有多少空间?这是另外一个概念, “嘉”的机内码是10111100 11001110,但怎么打印出这个字形呢?还要有一个“字形库”,如果是一个16*16点阵字库,是这样计算的:一行有16个点位,一共有16行,我们知道16个点位相当于2个字节(因为每8个点为一个字节),也就是每行有2个字节,共有16行,所以:2*16=32字节。因此,“嘉”字在“字形库”中占16个字节的存储空间。

页: [1]
查看完整版本: 吉大13春《计算机应用基础(统考N)》第一章 计算机基础...