悦读天下 -道德教育对生活世界的疏离与回归
本书资料更新时间:2025-01-09 23:25:58

道德教育对生活世界的疏离与回归 在线下载 pdf mobi 2025 epub 电子版

道德教育对生活世界的疏离与回归精美图片
》道德教育对生活世界的疏离与回归电子书籍版权问题 请点击这里查看《

道德教育对生活世界的疏离与回归书籍详细信息

  • ISBN:9787511735249
  • 作者:暂无作者
  • 出版社:暂无出版社
  • 出版时间:2019-05
  • 页数:暂无页数
  • 价格:42.75
  • 纸张:胶版纸
  • 装帧:平装-胶订
  • 开本:16开
  • 语言:未知
  • 丛书:暂无丛书
  • TAG:暂无
  • 豆瓣评分:暂无豆瓣评分
  • 豆瓣短评:点击查看
  • 豆瓣讨论:点击查看
  • 豆瓣目录:点击查看
  • 读书笔记:点击查看
  • 原文摘录:点击查看
  • 更新时间:2025-01-09 23:25:58

内容简介:

本书针对当前道德教育回归生活世界的学术热点,探索了道德教育疏离生活世界的标准、现象、后果及原由等议题,明确了其回归生活世界是一种系统的、合理的和时代的回归。道德教育回归生活世界有其发展的必然性,也有其现实可行性。因为道德教育与生活世界同构,都是为人的,都是对“如何做人和如何生活”基本问题的追寻。道德教育回归生活世界是道德教育发展的时代载体需要,也是存在于生活世界中人们完善理想人格和追求幸福生活的能及场域需要。它不仅给予了人们不断成就自我和获得幸福的美好期许,也推动了新时代道德教育的前进步伐,助力于道德教育的实效性增强,以练就担当民族复兴大任的时代新人,书写中华民族伟大复兴历史进程中的辉煌篇章。


书籍目录:

导论

节 研究目的与内容意义

一、研究目的

二、内容意义

第二节 研究现状与研究难点

一、研究现状

二、研究难点

第三节 研究方法与创新之处

一、研究方法

二、创新之处

章 生活世界:道德教育的根基

节 道德教育植根于生活世界

一、生活世界为道德教育提供素材资源

二、生活世界为道德教育提供支持手段

三、生活世界为道德教育提供交往场域

第二节 道德教育发展于生活世界

一、道德教育强调人的生存价值关怀

二、道德教育关注人的道德个性提升

三、道德教育慰藉人的精神生产吁求

第三节 道德教育实现于生活世界

一、完善个体人格

二、推动道德进步

三、促进社会治理

第二章 道德教育疏离生活世界的现象反思

节 道德教育疏离生活世界的图景

一、教育目标方面:反生活性

二、教育内容方面:少生活性

三、教育方法方面:去生活性

第二节 道德教育疏离生活世界的后果

一、疏离人实践的存在

二、疏离人关系的存在

三、疏离人意义的存在

第三节 道德教育疏离生活世界的原由

一、文化多元性与意义世界的消解

二、社会公共性与个人品德的张力

三、个性张扬与群体性满足的矛盾

第三章 道德教育回归生活世界的必然性

节 道德教育回归生活世界的历史趋势

一、西方道德教育回归生活世界的趋向

二、中国道德教育回归生活世界的趋向

第二节 道德教育对生活世界的回归可能

一、生活世界与道德教育的同构

二、道德教育的生活

三、生活世界的教育禀赋

第三节 生活世界对道德教育的现实需求

一、提供一种新的思维方式

二、注重人的动态性生成过程

三、建构一种特殊的生活形式

第四章 道德教育何以回归生活世界

节 本体论层面:坚定人本立场

一、尊重受教育者的主体性存在

二、探寻教育主体的主体间性存在

三、提升教育主体的意义性存在

第二节 价值论层面:赋予意义追寻

一、夯实生存条件

二、激活生活意义

三、体验生命活力

第三节 方法论层面:依据实践基础

一、从实践中吸纳生活经验

二、从实践中获取动力支撑

三、从实践中寻找评价标准

第五章 道德教育如何回归生活世界

节 回归怎样的生活世界

一、回归生活世界的实质

二、回归生活世界的定位

三、回归生活世界的构想

第二节 回归生活世界的要求

一、面对时代问题——道德教育的动力源泉

二、立足生活实践——道德教育的创新内驱

三、遵循生成规律——道德教育的合理呼唤

四、 现实世界——道德教育的本质彰显

五、追求幸福生活——道德教育的党性使然

第三节 回归生活世界的路径

一、传承文化传统

二、维护社会秩序

三、发展个性自由

结语

参考文献

后记


作者介绍:

暂无相关内容,正在全力查找中


出版社信息:

暂无出版社相关信息,正在全力查找中!


书籍摘录:

暂无相关书籍摘录,正在全力查找中!



原文赏析:

暂无原文赏析,正在全力查找中!


其它内容:

暂无其它内容!


精彩短评:

  • 作者:土地测量员小K 发布时间:2021-10-06 19:07:18

    看方大曾的摄影觉得那就是身边的人,也会想到米勒的画和梵高早期的画,他的摄影让那个时代活了过来。如余华所说,那个世界没有消失,它无非是以今天的方式存在着。

    小方的胞妹几十年来,经历了数次历史上的动荡,仍完整保存着哥哥留下的一千多张底片,在孤寂中默默地守候。她相信哥哥没有死,相信他总有一天会突然出现在自己面前。不由得想到了今 敏的《千年女优》。

  • 作者:moor 发布时间:2016-10-22 23:32:25

    当初冲着双色版就是因为它的封面好看啊!但是双色版有很多细节没有处理好,有印刷上和内容上的错误。尤其是音标的标注棱模两可。单色版已经出版八年了,不知为何不出新版?总体上还是一本不错的词典

  • 作者:kikizhu 发布时间:2021-08-04 08:07:11

    十几年过去重读这本书,发现很多地方都变了样,“文化街区”把这些历史和文化保留了下来。//@walkietalkie 我在做功课,赫赫。

  • 作者:sharon 发布时间:2018-03-23 10:41:50

    世界是全息的,通过梦境,巧合,你可以读懂很多信息(很多灵修课程里会抽卡来分析潜意识也是这个原理),通过想象力和梦境的结合,甚至可以疗愈身体(其实也是冥想的原理)。

    基本上唯物主义会觉得这是鬼扯;心灵领域研究深入的会觉得非常有趣,而且在生活中真的可以得到验证。

  • 作者:陆小包 发布时间:2014-12-22 20:56:51

    看了等于没看。写这书估计东野最多用了一周吧。

  • 作者:笃散散 发布时间:2018-04-26 18:45:19

    20180403-20180425-20180426作者的认知哲学与我高度一致,甚至比我更坚定(这也是我会重新自我审视以至来看这本书的原因),全书无槽点。孩子需要解放,人民需要解放,解放生产力首先是解放人,首先是人的解放。


深度书评:

  • 《python神经网络》读书笔记

    作者:疯琴 发布时间:2018-06-22 13:35:10

    之一

    大约三天读完,这本书浅显易懂,非常适合入门,只有权重调整值的推导过程看得不是很透彻。

    基本概念

    神经网络也是机器学习的一种实现,可以应用在有监督学习和无监督学习,因为中间可以有较多层,所以属于深度学习方法。

    神经网络的名字很唬人,其实概念挺朴素的,是由含一个输入层一个输出层和若干隐藏层构成的有向无环图(这名字也唬人),看图像一目了然,为啥叫隐藏层呢,就是因为和输入输出没关系,看不见,有点儿神秘。每层的每个结点借助生物的概念称为神经元,各层之间神经元相互链接。

    算法训练包含两个阶段:输入向输出传送叫前向馈送信号,输出向输入传送叫反向误差传播。把输入前馈计算得到输出,把输出与目标值比对计算误差,把误差反向传播修正链接权重。具体过程是:

    “输入层与隐藏层之间的链接权重”与“输入信号”加权求和,“和值”通过神经元函数(通常是阶跃函数)运算得到隐藏层的结果。

    用与第一步相同的过程计算出输出层的结果。

    目标值-输出值=误差。

    将误差按权重反向传播给隐藏层。

    用梯度下降法最小化误差,计算出误差调整值,初始误差+误差调整值=训练结果。

    注意点

    初始权重未知,为了避免落入错误的山谷,随机选取多个起始点(初始权重)。

    根据调整应用在信号上的神经元函数的斜率来调整权重。

    梯度下降法最小化误差函数。

    训练过程就是调整权重的过程,初始权重的设定要注意避免网络饱和。初始权重过大容易导致网络饱和,初始权重为0或者相等将导致丧失学习能力。

    输入信号通常取值范围是0.01 ~ 0.99或-1.0 ~ 1.0,一个比较合适的输出取值范围0.01 ~ 0.99。

    问题

    1.12节反向传播误差到更多层中,最后一张图将误差传播到了输入层,这给我造成了困惑,想了大半天,因为在后面调整误差的时候只用到了隐藏层和输出层的误差,其实在三层的网络中,只需要用输出层误差计算Who和用隐藏层误差计算Wih,计算输入层的误差其实没有用,书中应该是借用这一步推导更明确一下传播误差的方法。

    2.4.4节wih初始化时正态分布的标准差取1/sqrt(传入链接数目),代码中隐藏层传入链接数目用hnodes,输出层传入链接数目用onodes,我认为传入链接数目应该是上一层的结点数,所以分别应该是inodes和hnodes。

    训练时cpu使用率40%,跑了一会以后升高到60%,临近计算结束又降到40%,不是一直跑满。

    训练结果

    MNIST手写数字识别

    世代隐藏层隐藏层结点数学习率识别率训练时长(s)

    111000.10.947924.0102111000.2

    0.9518

    25.4991111000.30.944326.0787111000.60.920924.988311100.2

    0.8495

    11.4656112000.20.955897.4185212000.20.957449.0803312000.20.960278.7243412000.20.959104.7202512000.2

    0.9627

    146.9687612000.20.9577162.4879

    之二

    更多隐藏层

    书中分别对比了不同学习率,不同隐藏层结点数和不同训练世代的模型学习效果,没有对比多隐藏层的模型,我自己添加了一层隐藏层的代码,得出的训练结果如下:

    世代隐藏层隐藏层结点数学习率识别率训练时长(s)

    1210*100.20.767711.53681220*200.20.806617.02151230*300.20.844217.41761220*300.2

    0.7984

    16.78451230*200.20.841217.74631250*500.20.847120.363212100*1000.20.849631.061122100*1000.20.863565.3597

    可见多一层隐藏层学习想过不但没有提高,反而下降了。

    相同训练世代相同学习率的识别率:

    10 * 10 < 20 * 30 < 20 * 20 < 30 * 20 < 30 * 30 < 50 * 50

    代码

    看看训练集的数字图像

    把训练集的数组转换成图像,大概浏览一下手写的样子

    转换代码:

    import numpy as np

    import matplotlib.pyplot as plt

    with open(r'mnist/mnist_train.csv', 'r') as datafile:

    line = datafile.readline()

    i = 1

    while line and i < 50:

    all_values = line.split(',')

    label = all_values[0]

    img_array = np.asfarray(all_values[1:]).reshape((28, 28))

    # plt.axis('off')

    plt.imshow(img_array, cmap='Greys')

    filename = 'mnist/mnist_images/test' + str(i) +

    '_' + label + '.png'

    plt.savefig(filename)

    i += 1

    line = datafile.readline()

    更多的训练数据

    MNIST有60,000条训练数据,书上为了获得更多的训练数据把每一条训练数据的图像分别顺时针、逆时针旋转了10度,这样就添加了两倍的训练样本。

    世代隐藏层隐藏层结点数学习率识别率训练时长(s)是否训练旋转数据

    111000.20.951825.4991否111000.20.947170.7045是111000.10.950325.7134否111000.10.954470.7045是111000.010.913126.4683否111000.010.932972.5362是111000.050.944327.1351否111000.050.951973.1557是112000.010.906597.4234否112000.010.9338296.3523是1012000.01

    0.9677

    1115.5962否1012000.01

    0.9777

    2890.7095是

    当学习率为0.2时,加入旋转训练数据的模型识别率反倒更低,将学习率减小为0.01以后增加旋转数据可以提高识别率,通过学习率0.01和0.05两个模型进一步判断学习率越小,增加旋转训练数据带来的学习了提高越多。但问题是很明显

    训练样本增多反而导致识别率下降

    。于是我怀疑我的代码有没有问题,下载了作者的代码跑,他是200个隐藏层结点、0.01的学习率跑了10个世代,github上他代码跑的结果是0.9754,我下载下来跑的是0.9779,然后我把我的代码改成一样的跑法用了2890.709569秒合48分钟,识别率是0.9777,看来没问题。然后我对比了一下10世代不用旋转数据的,识别率是0.9677,看来大样本在多世代的学习后效果才显现,另外正如书上说的,样本量大了以后可以采用更小、更谨慎的学习步长,因此将学习率减少到0.01。

    另外我对比了一下我的代码和作者代码的执行效率,100个隐藏层结点0.2学习率1世代我的代码跑了71.5秒,作者的跑了74秒。

    问题

    上一篇笔记中提到初始化权重的时候正态分布方差使用的是传入链接数也就是上一层结点数,而书上用的是当前结点数,我在看github上的代码时作者已经修正为上一层结点数了。

    之三

    识别自己写的数字

    下面到了好玩儿的部分。用包含了旋转图像角度的数据训练好的200个隐藏层结点、10世代的模型,识别率为0.9771,识别我家三口写的0-9共30个数字,故意写得乱一点。正确识别了12个,识别率只有40%,在调节过程中我发现数字在图片中的位置和图片的对比度都会影响识别效果,我把测试集的对比度+0.1(值域是0.01 ~ 0.99)识别对了15个,+0.2,识别对了18个,对比度打满,识别对了18个。然后我规规矩矩写了10个数字,除了9以外都正确识别了,重写了一个圆更大的9识别正确了。

    图片转换成数组用于识别

    import numpy as np

    import matplotlib.pyplot as plt

    import scipy.misc

    from PIL import Image

    root = r'D:pyFiles365venvnnptestwang'

    test_data = []

    right = 0

    for dirpath, dirnames, filenames in os.walk(root):

    for filename in filenames:

    # print(filepath)

    if filename != 'all.jpg':

    label = filename.split('.')[0][-1]

    img = Image.open(r'testwang/' + filename)

    # 将图像转换为灰度模式

    img = img.convert('L')

    img_array = np.array(img)

    # plt.imshow(img_array, cmap='Greys')

    # 此时图像的黑白和训练样本的是颠倒的,需要反过来

    img_array = 255.0 - img_array

    img_array = img_array / 255.0 * 0.99 + 0.01

    img_array = img_array.flatten()

    res = n.query(img_array).argmax()

    print(label, res)

    if label == str(res):

    right += 1

    print(right)

    更多的训练数据

    书中用旋转图像的方法增加了训练数据,我能想到的还可以移动图片位置,根据识别我手写数字的经验还有调整图片对比度的方法可以再增加一些训练数据,看看训练效果能不能再提高。

    # 训练

    from time import perf_counter as pc

    start = pc()

    for _ in range(10):

    for record in training_data_list:

    all_values = record.split(',')

    # inputs是一维数组

    inputs = np.asfarray(all_values[1:]) / 255.0 * 0.99 + 0.01

    targets = np.zeros(output_nodes) + 0.01

    targets[int(all_values[0])] = 0.99

    n.train(inputs, targets)

    # imputs_matrix是28 * 28矩阵

    imputs_matrix = inputs.reshape(28, 28)

    # 左移一个像素

    img_left = np.zeros((28, 28)) + 0.01

    img_left[:, :-1] = imputs_matrix[:, 1:]

    n.train(img_left.ravel(), targets)

    # 右移一个像素

    img_right = np.zeros((28, 28)) + 0.01

    img_right[:, 1:] = imputs_matrix[:, :-1]

    n.train(img_right.ravel(), targets)

    # 上移一个像素

    img_up = np.zeros((28, 28)) + 0.01

    img_up[:-1, :] = imputs_matrix[1:, :]

    n.train(img_up.ravel(), targets)

    # 下移一个像素

    img_down = np.zeros((28, 28)) + 0.01

    img_down[1:, :] = imputs_matrix[:-1, :]

    n.train(img_down.ravel(), targets)

    # 加0.2对比度

    img_array = inputs

    for i in range(len(img_array)):

    if img_array[i] != 0.01:

    img_array[i] += 0.2

    if img_array[i] > 0.99:

    img_array[i] = 0.99

    n.train(img_array, targets)

    # 减0.1对比度

    img_array = inputs

    for i in range(len(img_array)):

    if img_array[i] != 0.01:

    img_array[i] -= 0.1

    if img_array[i] < 0.011:

    img_array[i] = 0.011

    n.train(img_array, targets)

    # 顺时针旋转10度

    img_plus10 = scipy.ndimage.interpolation.rotate(imputs_matrix, 10, cval=0.01, order=1, reshape=False)

    n.train(img_plus10.ravel(), targets)

    # 逆时针旋转10度

    img_minus10 = scipy.ndimage.interpolation.rotate(imputs_matrix, -10, cval=0.01, order=1, reshape=False)

    n.train(img_minus10.ravel(), targets)

    我使用了200个隐藏层结点,学习率0.005,训练10世代,对MNIST原始数据、顺时针逆时针旋转10度、上下左右各移动1个像素和对比度增加0.2减少0.1共9套数据进行训练,耗时9010.42305秒,合两个半小时,得到识别率0.9783,虽然只提高了0.0004,而且增加的训练样本是否对这个提高有作用很难说,但是能进步一点还是挺高兴的。

    然后接下来的鼓捣给我带来了惊喜,识别我家三口的手写准确率有了提升:

    模型增加对比度识别率

    MNIST+旋转+012MNIST+旋转+0.115MNIST+旋转+0.2-0.518MNIST+旋转+0.6-0.717MNIST+旋转+0.8及以上18MNIST+旋转+平移+增减对比度+012MNIST+旋转+平移+增减对比度+0.117MNIST+旋转+平移+增减对比度+0.219MNIST+旋转+平移+增减对比度+0.420MNIST+旋转+平移+增减对比度+0.5及以上19

    通过以上的测试我认为平移和调整对比度对于模型的训练时有意义的,同时我还发现不是对比度越大识别率越大。

    识别结果,红字为错误识别结果

    收获

    书中说他在加入旋转训练数据后识别率到达0.9787,几乎到达98%,感觉很骄傲。而我在实测我的手写数字时识别率并不令人满意。我读书的时候就想到了平移图片增加训练样本,我在上一篇笔记中把数组转换成图片查看手写数字形状的时候注释了一行

    # plt.axis('off')

    ,开始把坐标轴去掉是想更清楚地看数字形状,后来注释掉了就是特地为了看一下数字与边缘的距离,我看有些数字距离边缘只有一个像素,如果移动两个像素可能会比较严重地影响数字的形状。所以我在平移的时候只移动了一个像素。然后在测试我自己的手写样本时又发现识别率和对比度有关系,就加上了对增减了对比度的样本的训练。

    训练时间从最初的24秒增加到了两个半小时,还可以再通过调整训练样本的参数继续增加训练集,但我感觉已经非常接近极限了,通过调整图片位置和对比度我感觉如果只是同一个训练样本变换位置和对比度就能训练出不同的结果,就应该在模型上想办法了,继续在训练样本上做文章意义不大了。对于这本书和这个模型暂时先学习到这里吧,看书用3天,自己扩展用了3天,把书读厚这个过程收获良多。

  • 《父母工作案例集》推荐序Ⅰ

    作者:万千心理 发布时间:2023-03-08 15:25:11


书籍真实打分

  • 故事情节:4分

  • 人物塑造:3分

  • 主题深度:8分

  • 文字风格:8分

  • 语言运用:6分

  • 文笔流畅:8分

  • 思想传递:6分

  • 知识深度:9分

  • 知识广度:6分

  • 实用性:7分

  • 章节划分:7分

  • 结构布局:5分

  • 新颖与独特:9分

  • 情感共鸣:8分

  • 引人入胜:9分

  • 现实相关:5分

  • 沉浸感:9分

  • 事实准确性:3分

  • 文化贡献:4分


网站评分

  • 书籍多样性:3分

  • 书籍信息完全性:3分

  • 网站更新速度:3分

  • 使用便利性:5分

  • 书籍清晰度:9分

  • 书籍格式兼容性:6分

  • 是否包含广告:8分

  • 加载速度:9分

  • 安全性:6分

  • 稳定性:5分

  • 搜索功能:8分

  • 下载便捷性:8分


下载点评

  • 超值(462+)
  • 在线转格式(575+)
  • 简单(91+)
  • epub(217+)
  • 体验还行(121+)
  • 服务好(637+)
  • 已买(202+)
  • 盗版少(371+)
  • 图文清晰(436+)
  • 内容完整(383+)
  • 值得下载(609+)
  • 无漏页(567+)
  • 赞(421+)

下载评价

  • 网友 曹***雯: ( 2025-01-07 22:16:06 )

    为什么许多书都找不到?

  • 网友 宓***莉: ( 2024-12-11 15:35:45 )

    不仅速度快,而且内容无盗版痕迹。

  • 网友 曾***文: ( 2024-12-20 04:35:23 )

    五星好评哦

  • 网友 车***波: ( 2024-12-25 05:06:31 )

    很好,下载出来的内容没有乱码。

  • 网友 屠***好: ( 2024-12-22 10:40:50 )

    还行吧。

  • 网友 堵***洁: ( 2024-12-16 06:59:17 )

    好用,支持

  • 网友 詹***萍: ( 2024-12-17 00:32:43 )

    好评的,这是自己一直选择的下载书的网站

  • 网友 冯***丽: ( 2024-12-21 04:42:57 )

    卡的不行啊

  • 网友 陈***秋: ( 2024-12-22 00:26:17 )

    不错,图文清晰,无错版,可以入手。

  • 网友 马***偲: ( 2024-12-18 23:42:17 )

    好 很好 非常好 无比的好 史上最好的

  • 网友 常***翠: ( 2024-12-14 15:50:31 )

    哈哈哈哈哈哈

  • 网友 师***怀: ( 2025-01-08 08:17:00 )

    好是好,要是能免费下就好了

  • 网友 步***青: ( 2024-12-14 19:37:25 )

    。。。。。好

  • 网友 索***宸: ( 2024-12-12 11:32:10 )

    书的质量很好。资源多

  • 网友 家***丝: ( 2024-12-27 14:29:47 )

    好6666666

  • 网友 权***颜: ( 2024-12-29 12:21:48 )

    下载地址、格式选择、下载方式都还挺多的


随机推荐