内存缓存与LruCache
发布日期:2021-06-30 18:39:47 浏览次数:3 分类:技术文章

本文共 1701 字,大约阅读时间需要 5 分钟。

内存缓存

  • 1.内存缓存的核心:
    • 存:就有很多的考虑
    • 取:只需要知道唯一的key就可以了
  • 2.选择什么样的存储结构/容器/集合?Map

LruCache的使用:

一个工具方法,提供了基于Lru缓存策略强引用的内存缓存,存储结构使用的LinkedHashmap

  • LinkedHashmap使用

    • LinkedHashmap和Hashmap区别:在构造方法里面多了3个参数
    • 3个参数的意义:
      • initialCapacity:初始化容器大小 16
      • loadFactor:负载因子
      • accessOrder:
        • true:LinkedHash内部会排序–>按照访问顺序排序–>这个也是为什么LruCache使用LinkedHashmap做存储结构的原因
        • false:按照插入顺序去排序
  • LruCache在什么地方可以找到?

    • 在高版本的sdk里面有.
    • 在v4包中有提供.
  • LruCache的使用
    1. 告知缓存的具体大小
    2. 覆写sizeOf方法,具体大小需要和我们定义的maxsize单位统一

LruCache的使用Demo(与Volley的ImageCache结合):

package com.lqr.myvolleydemo;import android.graphics.Bitmap;import android.support.v4.util.LruCache;import com.android.volley.toolbox.ImageLoader.ImageCache;/** * @author CSDN_LQR * @工程 MyVolleyDemo * @包名 com.lqr.myvolleydemo * @TODO 使用LruCache自定义的缓存类 */public class MyImageCache implements ImageCache {
LruCache
mLruCache; // 存储结构/容器/集合缓存的最大值 // 1.告知缓存的具体大小 // private int maxSize = 5 ;// 5m private int maxSize = 5 * 1024 * 1024;// 5242880byte public MyImageCache() { mLruCache = new LruCache
(maxSize) { // 2.覆写sizeOf方法(用于计算每张图片的大小) @Override protected int sizeOf(String key, Bitmap value) { // return super.sizeOf(key, value);//默认返回1 // 返回每一个entry对应的大小 // 具体大小需要和我们定义的maxSize单位统一 // return value.getByteCount()/1024/1024;//对应maxSize = 5m return value.getByteCount();// 对应maxSize = 5242880byte } }; } @Override public Bitmap getBitmap(String url) {
// 取图片 // TODO return mLruCache.get(url); } @Override public void putBitmap(String url, Bitmap bitmap) {
// 取图片 // TODO mLruCache.put(url, bitmap); }}

转载地址:https://linqiarui.blog.csdn.net/article/details/51296526 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:gzip压缩笔记
下一篇:Volley的学习笔记

发表评论

最新留言

不错!
[***.144.177.141]2024年04月23日 11时45分02秒

关于作者

    喝酒易醉,品茶养心,人生如梦,品茶悟道,何以解忧?唯有杜康!
-- 愿君每日到此一游!

推荐文章

OpenCV实战(二)——答题卡识别判卷 2019-04-30
目标检测神经网络的发展历程(52 个目标检测模型) 2019-04-30
Boundary loss 损失函数 2019-04-30
神经网络调参实战(一)—— 训练更多次数 & tensorboard & finetune 2019-04-30
tensorflow使用tensorboard进行可视化 2019-04-30
神经网络调参实战(二)—— activation & initializer & optimizer 2019-04-30
凸优化 convex optimization 2019-04-30
数据库索引 & 为什么要对数据库建立索引 / 数据库建立索引为什么会加快查询速度 2019-04-30
IEEE与APA引用格式 2019-04-30
research gap 2019-04-30
pytorch训练cifar10数据集查看各个种类图片的准确率 2019-04-30
Python鼠标点击图片,获取点击点的像素坐标 2019-04-30
路径规划(一) —— 环境描述(Grid Map & Feature Map) & 全局路径规划(最优路径规划(Dijkstra&A*star) & 概率路径规划(PRM&RRT)) 2019-04-30
神经网络调参实战(四)—— 加深网络层次 & 批归一化 batch normalization 2019-04-30
数据挖掘与数据分析(三)—— 探索性数据分析EDA(多因子与复合分析) & 可视化(1)—— 假设检验(μ&卡方检验&方差检验(F检验))&相关系数(皮尔逊&斯皮尔曼) 2019-04-30
RRT算法(快速拓展随机树)的Python实现 2019-04-30
路径规划(二) —— 轨迹优化(样条法) & 局部规划(人工势能场法) & 智能路径规划(生物启发(蚁群&RVO) & 强化学习) 2019-04-30
D*算法 2019-04-30
强化学习(四) —— Actor-Critic演员评论家 & code 2019-04-30
RESTful API 2019-04-30