数组:为什么很多编程语言中数组都从0开始编号?

📝 ✏️ 📌
数组:为什么很多编程语言中数组都从0开始编号?

提到数组,我想你肯定不陌生,升职还会自信地说,它很简单啊。

是的,在每一种编程语言中,基本都会有数组这种数据类型。不过,它不仅仅是一种编程语言中的数据类型,还是一种最基础的数据结构,尽管数组看起来非常基础、简单,但是我估计很多人都并没有理解这个基础数据结构的精髓。

在大部分编程语言中,数组都是从0开始编号的,但你是否下意识地想过,为什么数组要从0开始编号,而不是从1开始呢?从1开始不是更符合人类的思维习惯吗?

你可以带着这个问题来学习接下来的内容g

如何实现随机访问?

什么是数组?我估计你心中已经有了答案。不过,我还是想用专业的话来给你坐下解释。数组(Array)是一种线性表数据结构。它用一组连续的内存空间,来存储一组具有相同类型的数据。

这个定义里有几个关键词,理解了这几个关键词,我想你就能彻底掌握数组的概念了。下面就从我的角度分别给你"点拨一下"。

第一是线性表。顾名思义,线性表就是数据排成像一条线一样的结构。每个线性表上的数据最多只有前和后两个方向。其实除了数组,链表、队列、栈等也是线性表结构。

而与它相对立的概念是非线性表,比如二叉树、堆、图等。之所以叫非线性,是因为,在非线性中,数据之间并不是简单的前后关系。

第二个是连续的内存空间和相同类型的数据。正式因为这两个限制,它才有了一个堪称"杀手锏"的特性:"随机访问"。但有利就有弊,这两个限制也让数组的很多操作变得非常低效,比如要想在数组中删除、插入一个数据,为了保证连续性,就需要做大量的数据搬移工作。

说到数据的访问,那你知道数组是如何实现根据下标随机访问素组元素的吗?

数组的随机访问意味着可以直接、快速地访问数组中的任何元素,而无需按顺序遍历数组。

数组的随机访问的关键点:

连续的内存块:数组在内存中连续存储的。这意味着,如果你知道数组的其实地址和元素的大小,你可以轻松地计算出任何元素的地址。

基于索引的访问:每个数组元素都可以使用索引来访问,其中0是第一个元素索引,1是第二个元素索引,依此类推。假设我们有一个整数数组arr,其起始地址是base_address,则arr[i]的地址可以通过一下方式计算:element_address = base_address + i * sizeof(int)(其中sizeof(int)是一个整数在该平台的大小)。

O(1)时间复杂度:由于可以直接计算元素的地址,所以访问数组中的任何元素只需要常数时间(O(1)时间复杂度)。

这与链表等其他费连续存储的数据结构形成鲜明对比。例如,在链表中,为了访问第i个元素,你通常需要从头开始并遍历到第i个元素,这需要O(n)时间复杂度)。

我们拿一个长度为10的int类型的数组int[] a = new int[10]来举例。在我画的这个图中,计算机给数组a[10],分配了一块连续内存空间1000 ~ 1039,其中,内存块的首地址为base_address = 1000。

我们知道,计算机会给每个内存单元分配一个地址,计算机通过地址来访问内存中的数据。当计算机需要随机访问数组中的某个元素时,它会首先通过下面的寻址公式,计算出该元素存储的内存地址:

a[i]_address = base_address + i * data_type_size

其中data_type_size表示数组中每个元素的大小。我们举的这个例子里,数组存储的是int类型数据,所以data_type_size就位4个字节。这个公式非常简单,我就不多做解释了。

这里我要特别纠正一个"错误"。我在面试的时候,常常会问数组和链表的区别,很多人都回答说,"联保适合插入、删除,时间复杂度O(1);数组适合查找,查找时间复杂度为O(1)"。

实际上,这种表述是不准确的。数组是适合查找操作,但是查找的时间复杂度并不为O(1)。即便是排好序的数组,你用二分查找,时间复杂度也是O(logn)。所以,正确的表述应该是,数组支持随机访问,根据下标随机访问的时间复杂度为O(1)。

二分法算法原理及复杂度详解

binary search,常见的翻译有二分查找、二分搜索、这版搜索(这用的名称是half-interval search)、对数搜索(这里用的名词是logarithmic search),是一种非常常见并且应用范围也比较广泛的搜索算法。

之前曾看到过一个说法: 凡是有序,皆是二分,大概也能说明二分搜索的应用之广泛了。

二分搜索的基础原理

二分可以被用于查找有序数组中的某一个特定元素,其工作原理是查找一个既定值,target从数组,arr的重点,mid开始查找,判断arr[mid]的值,存在以下三种情况:

如果target = arr[mid],则找到target,直接返回mid

如果target < arr[mid],则代表target坐落于[0...mid]区间

如果target > arr[mid],则代表target坐落于(mid...arr.length)区间

这种没迭代一次就会将可选项的数量折半,也是折半搜索名词的来源。

这里也会应用到双指针去确认搜索的区间,关于双指针的知识点细节可以看这里: 双指针总结。

二分搜索的复杂度

接下来会对时间复杂度和空间复杂度进行分析。

空间复杂度

空间复杂度是很简单的,根据上面的流程可以得知,在整个二分搜索的过程中,只需要额外存储三个变量:最大值,最小值和中点,也因此,空间复杂度是常量O(1)。

时间复杂度

时间复杂度是O(log(n)),其计算方法会扫尾复杂一些,现在就开始从头分析。一直数组的长度为n,每一次数组的长度都会折半,一直到数组长度为1:

数组为了保持内存数据的连续性,会导致插入,删除这两个操作比较低效。现在我们就来详细说一下,究竟为什么会导致低效?又有哪些改进方法呢?

我们先来看插入操作。

假设数组的长度为n,现在,如果我们需要将一个数据插入到数组

低效的"插入"和"删除"

前面概念部分我们提到,数组为了保持内存数据的连续性,会导致插入、删除这两个操作比较低效。现在我们就来详细说一下,究竟为什么会导致低效?又有哪些改进方法呢?

我们先来看插入操作。

假设数组的长度为n,现在,如果我们需要讲一个数据插入到数组中的第k嗝位置。为了把第k嗝位置腾出来,给新来的数据,我们需要将k~n这部分的元素都顺序地往后挪一位。

如果在数组的末尾插入元素,那就不需药移动数据了,这时的时间复杂度为O(1)。但如果在数组的开头插入元素,那所有的数据都需要依次往后移动一位,所以平均情况时间复杂度为(1 + 2 + ... n) / n = O(n)。

如果数组中的数据是有序的,我们在某个位置插入一个新的元素时,就必须按照刚才的方法搬移k之后的数据。但是,如果数组中存储的数据并没有任何规律,数组只是被当做一个存储数据的集合。在这种情况下,如果要将某个数据插入到k嗝位置,为了避免大规模的数据搬移,我们还有一个简单的办法就是,直接将第k位的数据搬移到数组元素的最后,把新的元素直接放入到第k个位置。

为了更好地理解,我们举一个例子。假设数组a[10]中存储了如下5个元素: a,b,c,d,e

我们现在需要将元素x插入到第3个位置。我们只需要将c放入到a[5],将a[2]赋值为x即可。最后,数组中的元素如下:a,b,x,d,e,c

利用这种处理技巧,在特定场景下,在第k个位置插入一个元素的时间复杂度就会降为O(1)。这个处理思想在快拍中也会用到,我会在排序那一节具体来讲,这里就说到这儿。

我们再来看删除操作。

跟插入数据类似,如果我们要删除第k个位置的数据,为了内存的连续性,也需要搬移数据,不然中间就会出现空洞,内存就不连续了。

和插入类似,如果删除数组末尾的数据,则最好情况时间复杂度为O(1);如果删除开头的数据,则最坏情况时间复杂度为O(n);平均情况时间复杂度也为O(n)。

实际上,在某些特殊场景下,我们并不一定非得追求数组中数据的连续性。如果我们将多次删除操作集中在一起执行,删除的效率是不是会提高很多呢?

我们继续来看例子。数组a[10]中存储了8个元素:a,b,c,d,e,f,g,h。现在,我们要一次删除a,b,c三个元素。

为了避免d,e,f,g,这几个数据会被搬移3次,我们可以先记录已经删除的数据。每次的删除操作并不是真正地搬移数据,只是记录数据已经被删除。当数组没有更多空间存储数据时,我们在触发执行一次真正的删除操作,这样就大大减少了删除操作导致的数据搬移。

如果你了解JVM,你会发现,这不就是JVM标记清除垃圾回收算法的核心思想吗?没错,数据结构和算法的魅力就在于此,很多时候我们并不是要去死记硬背某个数据结构或者算法,而是要学习它背后的思想和处理技巧,这些东西才是最有价值的。如果你细心留意,不管实在软件开发还是在架构设计中,总能找到某些算法和数据结构的影子。

警惕数组的访问越界问题

了解了数组的几个基本操作后,我们来聊聊数组访问越界的问题。

首先,我请你来分析一下这段c语言代码的运行结构:

int main(int argc, char* argv[]){

int i = 0;

int arr[3] = {0};

for(; i<=3; i++){

arr[i] = 0;

printf("hello world\n");

}

return 0;

}

你发现问题了吗?这段代码的运行结果并非是答应三行"hello world",而是会无限打印"hello world",这是为什么呢?

因为,数组大小为3,a[0],a[1],a[2],而我们得代码因为书写错误,而导致for循环的结束条件错写为了i<=3而非i<3,所以当i=3时,数组a[3]访问越界。

我们知道,在c语言中,只要不是访问受限的内存,所有的内存空间都是可以自由访问的。根据我们前面讲的数组寻址公式,a[3]也会被定为到某块不属于数组的内存地址上,而这个地址正好是存储变量i的内存地址,那么a[3]=0就相当于i=0,所以就会导致代码无限循环。

数组越界在c语言中是一种未决行为,并没有规定数组访问越界时编译器应该如何处理。因为访问数组的本质就是访问一段连续内存,只要数组通过偏移计算得到的内存地址是可用的,那么程序就可能不会报任何错误。

这种情况系啊,一般都会出现莫名其妙的逻辑错误,就像我们刚刚举的那个例子,debug的难度非常大。而且,很多计算机病毒也正是利用到了代码中的数组越界可以访问非法地址的漏洞,来攻击系统,所以书写代码的时候一定要警惕数组越界。

但并非所有的语言都像C一样,把数组越界检查的工作丢个程序员来做,像java本身就会做越界检查,比如下面这几行java代码,就会抛出

java.lang.ArrayIndexOutOfBoundsException。

int[] a = new int[3];

a[3] = 10;

容器能否完全替代数组?

针对数组类型,很多语言都提供了容器类,比如java中的arraylist、C++ STL中的vector。在项目开发中,什么时候适合用数组,什么时候适合用容器呢?

这里我拿java语言来举例。如果你是Java工程师,几乎天天都在用ArrayList,对它应该非常熟悉。那它与数组相比,到底有哪些优势呢?

我个人觉得,ArrayList最大的优势就是可以将很多数组操作的细节封装起来。比如前面提到的数组插入、删除数据时需要搬移其他数据等。另外,它还有一个优势,就是支持动态扩容。

数组本身在定义的时候需要预先指定大小,因为需要分配连续的内存空间。如果我们申请了大小为10的数组,当第11个数据需要存储到数组中时,我们就需要重新分配一块更大的空间,将原来的数据复制过去,然后在将新的数据插入。

如果使用ArrayList,我们就完全不需要关心底层的扩容逻辑,ArrayList已经帮我们实现好了。每次存储空间不够的时候,它都会将空间自动扩容为1.5倍大小。

不过,这里需要注意一点,因为扩容操作涉及内存申请和数据搬移,是比较耗时的。所以,如果事先能确定需要存储的数据大小,最好在创建ArrayList的时候实现指定数据大小。

比如我们要从数据库中去除10000条数据放入ArrayList。我们看下面这几行代码,你会发现,相比之下,实现指定数据大小可以省掉很多内存申请和数据搬移操作。

ArrayList users = new ArrayList(10000);

for (int i = 0; i < 10000; ++i) {

users.add(xxx);

}

作为高级语言编程者,是不是数组就无用武之地了呢?当然不是,有些时候,用数组会更合适些,我总结了几点自己的经验。

java arraylist无法存储基本类型,比如int、long,需要封装为Integer、Long类,而Autoboxing、Unboxing 则有一定的性能消耗,所以如果特别关注性能,或者希望使用基本类型,就可以选用数组。

如果数据大小事先已知,并且对数据的操作非常简单,用不到 ArrayList 提供的大部分方法,也可以直接使用数组。

还有一个是我个人的喜好,当要表示多维数组时,用数组往往会更加直观。比如 Object[][] array;而用容器的话则需要这样定义:ArrayList > array。

我总结一下,对于业务开发,直接使用容器就足够了,省时省力。毕竟损耗一丢丢性能,完全不会影响到系统整体的性能。但如果你是做一些非常底层的开发,比如开发网络框架,性能的优化需要做到极致,这个时候数组就会优于容器,成为首选。

解答开篇

现在我们来思考开篇问题:为什么大多数编程语言中,数组要从0开始编号,而不是从1开始呢?

从数组存储的内存模型上来看,"下标"最确切的定义应该是"偏移(offset)"。前面也讲到,如果用a来表示数组的首地址,a[0]就是偏移为0的位置,也就是首地址,a[k]就表示偏移k嗝type_size的位置,所以计算a[k]的内存地址只需要用这个公式:

a[k]_address = base_address + k * type_size

但是,如果数组从1开始计数,那我们计算数组元素a[k]的内存地址就会变为:

a[k]_address = base_address + (k-1)*type_size

对比两个公式,我们不难发现,从1开始编号,每次随机访问数组元素都多了一次减法运算,对于CPU来说,就是多了一次减法指令。

数组作为非常基础的数据结构,通过下标随机访问数组元素又是其非常基础的编程操作,效率的优化就要尽可能做到极致。所以为了减少一次减法操作,数组选择了从0开始编号,而不是从1开始。

不过我认为,上面解释得再多其实都算不上压倒性的证明,说到数组起始编号非0开始不可。所以我觉得最主要的原因可能是历史原因。

C 语言设计者用 0 开始计数数组下标,之后的 Java、JavaScript 等高级语言都效仿了 C 语言,或者说,为了在一定程度上减少 C 语言程序员学习 Java 的学习成本,因此继续沿用了从 0 开始计数的习惯。实际上,很多语言中数组也并不是从 0 开始计数的,比如 Matlab。甚至还有一些语言支持负数下标,比如 Python

内容小结

我们今天学习了数组。它可以说是最基础,最简单的数据结构了。数组用一块连续的内存空间,来存储相同类型的一组数据,最大的特点就是支持随机访问,但插入、删除操作也因此变得比较低效,平均情况时间复杂度为O(n)。在平时业务开发中,我们可以直接使用编程语言提供容器类,但是,如果特别底层的开发,直接使用数组可能会更合适。

🔗 相关推荐

✨ 💡 🎯
微信公众号申请需要多久
bt365体育网址

微信公众号申请需要多久

📅 11-19 👀 4046
《刺客信条IV:黑旗》
bt365体育网址

《刺客信条IV:黑旗》

📅 09-04 👀 5510
【户外知识】别玩命!速降前你先看完这篇!
bt365体育网址

【户外知识】别玩命!速降前你先看完这篇!

📅 09-20 👀 4677