嵌入式 > 技术百科 > 详情

单片机资源:时间和空间的思考

发布时间:2024-10-30 发布时间:
|

    最近看了看书,看了看博客,听了听高人们的谈论,心里有些体会,记录下来,算是最近写的一个关于堆代码的总结吧,虽然是很简单的应用,但是自己从中学到了知识,也算收货不少。某位伟人说的,人生每天进步一点点,(后面是啥,忘记了。。。)。好了,不扯淡了,开始话题。

    首先,我来说下怎么用单链表去模拟一个堆(准确说是一个内存池)。

    用单链表去记录一些可用的memory,主要是用单链表把这些可用的内存记录起来。

    用自己的malloc去从单链表中返回一个可用内存,并把这片可用内存从链表中删除。

    用自己的free把用完的内存再添加到可用内存链表中。

    有个memory_add函数,把一片可用内存初始化为可用的内存链表。

具体实现:

void free_check_str_t(check_str_t *ptItem)
{
    check_t*    ptThis      =   (check_t*)ptItem;
    check_t*    ptTempList  =   s_ptFreeList;
    if(NULL ==  ptThis){
        return;
    }
    
    s_ptFreeList =   &this;
    this.ptNext  =   ptTempList;
}


check_str_t *malloc_check_str_t(void)
{
    check_t  *ptThis = s_ptFreeList;
    if(NULL == ptThis){
        return  NULL;
    }


    s_ptFreeList  =   this.ptNext;
    this.ptNext   =   NULL;
    return  (check_str_t*)(&this.tItem);
}


bool add_memory_block_to_check_str_t_heap(void *pBlock, uint32_t wBlockSize)
{
    check_t       *ptNew     =   NULL;
    uint8_t       *pchTemp   =   pBlock;
    uint32_t      wi         =   0;
    if(NULL == pBlock){
        return  false;
    }
    if(CHECK_LIST_ITEM_SIZE > wBlockSize){
        return false;
    }
    //添加新的节点
    for(wi=0;wi        if((wi + CHECK_LIST_ITEM_SIZE) > wBlockSize){//剩余不够,不再分配
            return  true;
        }
        ptNew = (check_t *)(pchTemp+wi);
        free_check_str_t((check_str_t*)ptNew);
    }
    return  true;
}


这样就是实现了一个简单的专用堆,准确说是栈结构的。这样做比用static的变量去实现有什么好处呢?

先说缺点:

1、相同的变量比原来要多一个指针空间(不是链表自身,而是存储申请的HEAP地址);

2、这个缺点很重要,一不小心就内存泄漏;

既然有缺点,为什么人们还热此不彼的去用专用堆呢?

我开始没理解,后来还是没理解。原来这么做是为了以时间换空间(引出了今天的话题)。什么意思呢?

比方说,上面是一个可重入的模块,它提供某项服务(需要消耗一个struct 空间)。

有三个任务A/B/C都要需要调用这个服务。假如RAM宽裕,可以为每个任务都单独提供一个struct(为了重入),

那么这个时候这三个任务不需要等待,就可以同时运行,也就是通过牺牲RAM(空间),换取三个任务同时运行时间。

假如RAM不够大,那么只能用一个struct,大家轮流去申请,谁申请到谁用,用完释放掉,这样本来三个可以并行运行的任务,

由于RAM限制,不得不顺序执行,这就是以时间换空间。也就是说用提供模块的专用堆,我们可以很方便的根据实际RAM大小去选择

运行方案,而不需要更要上层调用逻辑。这就是专用HEAP作用。


其实说来这么多废话,主要是想引出下面这边博客(不要骂我无耻,其实我就是菜鸟,才刚学):

出处:http://www.amobbs.com/thread-5642364-1-1.html

虽然不是Linux提出的概念,但流(Stream)和块(Block)处理的深入人心绝对离不开流文件和
块文件的功劳。然而,流和块其实是更为通用的概念,它们分别代表了数据处理中 “以时间换空间” 
和 “以空间换时间” 的两种截然不同的偏重策略。

1、以空间换时间的块处理
  说到块处理,其最显著的特征就是,将所要处理的数据用一段连续的存储器保存下来,我们可以
随机对对这些数据进行访问和处理——简单说就是以保存数据所占用的存储器空间换取了访问的便利
性,降低了访问和处理的时间成本——因此我们可以说,块处理是一个典型的用存储器空间换取处理
时间的策略。
  举例来说,假设我们需要从一段文字中中处理其中某几个单词,我们可以先简单的将整段文字连
续的保存在RAM中,然后使用基于块的字符串处理函数对其进行操作。由于访问方式简单直接(随机
访问),因此字符串处理的效率主要由处理的算法决定,字符串访问并不是瓶颈——简单说,就是算
法能多快快,整个操作就有多快,对字符串的访问并不存在额外的时延。

  实际上,这个例子看似存在问题,因为字符串处理的基本单位仍然是字符,虽然目标数据被完整
地保存在数据块中,但常见的字符串操作仍然和流一样需要“一个字符一个字符”的顺次进行(例如比
较字符串,或者是查找字符串位置)。但我不得不举这个例子,因为它不仅仅是最常见的流操作和块
操作的目标,更重要的是,这种 “一个字符一个字符处理” 的特性让人们对流处理和块处理的特点在认
识上造成了模糊。因此,这里我想通过这个例子特别指出:

> 块处理中,字符串处理效率的瓶颈是由算法本身决定的,与之相比,数据访问的成本几乎可以忽略
不计(随机访问)。块处理的优势体现在,当我们以任意顺序访问块中的任意数据时,这里的访问成
本是最低的。块处理往往可以理解为:批量的处理,是效率的代名词;

> 流处理中,字符串处理效率的瓶颈是数据的访问,与之相对,算法的效率问题几乎可以忽略(顺序
访问)——要么是程序处理好当前字符后,喝完茶、打了个瞌睡,下一个字符还没有就绪;要么是处
理器处理一个字符所消耗的时间远没有从流中读取下一个字符来得长(考虑多任务间的队列通信)。
实际应用中,这两种情形往往是结合在一起的——当某个任务“焦急”的从串口缓冲区中尝试读取下一
个字符以便进行数据帧解析时,队列操作的时间、等待字符接收完成的时间通常比单独一个字符的处
理时间高出好几个数量级。

  说了那么多废话,让我们来做一个小结:块(Block)处理就是消耗存储器空间将目标数据都存储
下来,以方便数据处理算法随机的对其进行访问,从而至少节省访问时间的一种处理方式(由于访问
是随机的,可选用的算法就变得多样起来,选择最优的算法也会带来额外的好处)。这是一个以存储
器空间换取访问时间的策略。

  块的表现形式,是一段可随机访问的存储器空间。“可随机访问”是其时间上的本质,而块并不要
求数据在空间上是连续的(虽然字面上感觉应该要连续,但这种连续性并不是强制的)。

2、以时间换空间的流处理
  流处理最显著的特点就是,大的数据块被人为拆分成小的数据单元,数据的处理方一次只能接收
或者处理一个数据单元。流处理最大的限制是数据访问顺序的限制——所有的数据单元必须按照流发
送方提供的顺序进行访问。正是由于这种访问顺序的限制,让流的处理方常常觉得“谁用谁知道”的别
扭。——很多时候,为了数据访问的方便,会将一部分流先缓冲成小的数据块,再以块的方式进行处
理——典型的例子就是串行数据通信中常见的数据帧(Frame)。
  流处理的好处也是显而易见的,由于不需要大块的存储器空间用于数据的暂存,因而在小资源的
处理器,尤其是小SRAM的MCU中尤其流行。缺点是,受制于访问顺序,流处理的算法往往较为复杂,
有些功能甚至是无法实现的(单凭流处理本身无法实现,需要局部应用快处理);同时流处理的数据
存取时间造成的浪费也非常可观。人常说,流处理的本质就是零库存的手工作坊,一切都得按步就班
的来,提高流处理效率的方法就是把数据传输所需的等待时间以流水线的方式利用起来。

  小结一下,流(Stream)处理是以消耗更多处理器时间,并增加访问顺序的限制(顺序限制仍然
是时间轴上的一种限制)的方法,节省存储器空间的一种处理方式。这是一个以时间换空间的策略。

3、流和块的互换
  在常见的嵌入式系统数据流中,每一个数据处理环节(简称数据处理Process)对时间和空间的偏
好是不同的。这里的数据流可能包含多个分工不同的子系统(处理器),甚至包含远端的服务器系统。
有的Process对性能(时间)敏感并拥有宽裕的RAM,显然应该利用块处理“以空间换时间”的特性,将
RAM富余的优势更多的转化为性能优势;有的Process对空间敏感(往往是成本敏感导致的),对性能
则要求不高(比如UART,9600,甚至是2400波特率传输信息,比如红外遥控器传输遥控信息),这
种情况下,以流处理换取更多的成本优势几乎是不二的选择。
  那么,当一个数据流中,相邻的Process存在不同的偏好时怎么协调呢?

> 生产者Process使用“流”处理;消费者Process使用“块”处理
1、由消费者提供一个队列Q,该队列将用于保存数据的块MEM提供给Q作为缓冲区初始化为空队列;
2、永久封堵Q的出队接口
3、将Q的入队接口提供给生产者
4、当队列满时,将MEM取出,交给消费者处理;
5、如果MEM是堆分配的,则尝试从堆中获取一个新的MEM,重复1的步骤;当消费者完成对数据MEM
的处理后,应当在随后适当的位置将MEM释放回堆中

> 生产者Process使用“块”处理;消费者Process使用“流”处理
1、由生产者提供一个队列Q,并将保存数据的块MEM提供给Q作为缓冲区初始化为满队列;
2、永久封堵Q的入队接口
3、将Q的出队接口提供给消费者
4、当队列为空时,1)如果MEM是堆分配的,则将MEM释放回堆,并等待生产者提供可用的数据块,
进而回到步骤1;2)如果MEM是静态分配的,唯一的,则在此时还给生产者做下一次的数据生产;

  通过上面的描述,我们发现,队列(Queue)在流块互转间扮演了关键的桥梁作用。这里不仅有传
统意义上“将队列初始化为空”的操作,还引入了“将队列初始化为满”的概念。

  为什么队列如此神奇呢?因为其本质是:用存储器空间为“出队”、“入队”之间偶尔的瞬间速度差争
取时间。(相信大家都知道小学时候变态的泳池放水模型)队列是一个典型的用空间换时间的数据结
构。它能争取的是“出队”、“入队”之间由于速度差导致的时间差异,能换多少时间,完全由缓冲区大小
决定。

  我们有很多“同志”总是把队列当成万能药,只要觉得数据传输“可能出现速度不一致的问题”,就吃
一粒,也不管这种速度差异是不是恒定的(如果入队比出队恒定大,则队列必溢出,时间早晚由队列
缓冲大小决定);就好像用了队列就可以当自己为鸵鸟——把脑袋扎进沙子里——而所有通信的问题就
不存在了一样:

   恩!存在也不是速度差异的问题——“我用队列了阿?为什么还有问题?”——呵呵哒!

  其实,整篇文章铺垫那么多,就是为了最后一处吐槽作铺垫,吐完收工!畅快!舒服~哈哈哈哈。



昨天交流的心得,懒得再开一篇了,就写到这里吧。

话题的引出是我看见了下面这段话:

位于下层的 B 应该对上层的 A 一无所知是最好的。如果在 B 模块中必须出现 struct A,

那么我们应该至少保证,仅仅是 struct A * ,一个引用,而绝对不能出现任何对 A 模块内接口的

调用。不要认为使用巧妙的方法,绕过循环依赖初始化问题就够了。这应该是一个设计原则,不要去违反。

这个就是面向对象设计原则的:单相依赖原则。

也就说,假如A是B的上层,那么A的实现依赖于B,而B的实现不应该依赖于A。

也就是说假如把A模块代码删掉,B模块代码是否能够编译通过?

实际中肯定存在着这样的问题:

B要调用A的方法,什么情况下会出现这种问题呢?

假如B是一个线程,为什么不用通信机制去做?假如没有通信机制,那只能用回调(一会再讨论安全回调)。

假如B不是一个线程,那为什么用回调呢?这种时候应该重新设计,寻找替代方案;假如不能绕过,必须用回调,那应该用安全回调。

什么意思?比如:B要调用A的方法,但是这个方法要传递A中的参数,但是A对B是不可见的,怎么办?在B模块声明A的指针,

然后用A的指针去传递参数,这种回调就是不安全回调,我们应该避免。回调时候应该传递普通变量,这才是安全回调。


目前正在学OOPC,好费劲。。。。。。

封装基本概念


我们统一管模块不叫模块,而叫service。

一个service一定是保存在一个文件夹里面的;service叫什么名字,文件夹就叫什么名字。

一个service对外界来说就是一个黑盒子。黑盒子的意思就是说,外界对于service的内部,也就是文件夹里面的内容是不关心的;

黑盒子与外界理论上只通过接口进行沟通。因此,一个service的文件夹里面,一定有一个与service同名的.h文件,我们叫做接口

头文件。外界要想使用这个service,只能通过包含这个头文件来实现。

比如,我们有一个service叫做byte_queue;那么文件夹的名字也叫作byte_queue;在这个文件夹里面就有一个 byte_queue.h。

这里,接口头文件是用来从service内部向外部提供接口的。从提供信息的角度来说是由内而外的。因此我们一般认为,接口头

文件是用来“输出接口”的。与之相对的,对一个service来说,往往还是要提供一些输入信息的。比如,系统的配置(通过宏来配置代码);

系统的基础环境(变量类型之类的);还有这个service可能会依赖的其他service;这类信息是由外而内的输入信息的。

我们用一个配置型头文件 app_cfg.h 来承担这个责任。

 

大家基本上都遇到过一个系统里面只有顶层有一个system.h;然后所有.c都包含system.h来获得便利的模式。即便你以前没有遇到过,

以后也一定会遇到——这就是比较传统的处理头文件的做法。

这种做法混合了前面所说的两种头文件的职能——正因为是混合了,所以才导致了很多混乱:

首先,这种混合做法根本没有模块化的思想。

其次,将输入和输出信息混合在一起,容易造成复杂的包含性错误。

所以应该区分信息的类型,然后放置到正确的头文件中。

比如,晶体配置,硬件连接,明显属于配置类或者基础环境类的信息。这些信息应该是输入性质的,应该写入配制头文件。

一个service里面必然拥有一个接口头文件;也必然拥有一个配制头文件。

接口头文件的名字和service名称一样;但配制头文件一定叫app_cfg.h(为啥一定呢?因为是前辈们规定的)

模块里面的app_cfg.h的内容如下:

#include "..app_cfg.h"

   #ifndef __XXX_APP_CFG_H__

   #define __XXX_APP_CFG_H__

   ...

   #endif

 

__XXX_APP_CFG_H__是保护宏,防止同样的内容被包含两次。

请务必注意到这一点:app_cfg.h一定会在保护宏之前包含上一级目录的app_cfg.h。

 

一个service是一个黑盒子,里面究竟怎么实现其实是无所谓的;但一定包含一个接口头文件和一个配制头文件。

需要强调一点,对于接口头文件来说,黑盒子里面的所有的.c和.h都不会去包含它——简单说就是接口头文件是一个孤立的头文件。

关于配制头文件,模块内所有的文件都会包含它。

这就是service封装的基本规则。


 

『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

热门文章 更多
中芯国际与阿斯麦签订12亿美元大单