CS294(285) Actor Critic案例之路径工具类utils

CS294(285) Actor Critic案例之路径工具类utils

CS294(285) Actor Critic案例之路径工具类utils

在CS294(285) Actor Critic系列文章中,我们将跟着CS294 285的作业内容,一步一步的实现自己的演员-评论家算法。本篇实现路径工具类utils。

美国加州大学伯克利分校CS294(285)系列:

CS294(285) Actor Critic之agents https://duanzhihua.blog.csdn.net/article/details/103106090

CS294(285) Actor Critic之Critic https://duanzhihua.blog.csdn.net/article/details/103110785

强化学习系列:

Deep Q Network 算法 https://duanzhihua.blog.csdn.net/article/details/102963043

Double Deep Q Network 算法 https://duanzhihua.blog.csdn.net/article/details/102990509

Policy Gradient (策略梯度算法)https://duanzhihua.blog.csdn.net/article/details/102982992

Actor Critic算法  https://duanzhihua.blog.csdn.net/article/details/103097054

Actor Critic案例之路径工具类utils的几个主要方法:

sample_trajectory:抽样一条路径轨迹Path,限制每条路径步数,路径步数最大为max_path_length,每一步包括观测值、 观测图像、动作值、奖励、下一个观测值、终端状态值。

sample_trajectories:抽样多条路径,限制每条路径步数,每条路径的步数为pathLen;限制总步数,总步数求和小于每个批次的最小步数。

sample_n_trajectories:抽样n条路径。限制每次的步数,但不限总步数。

Path:构建1条路径,Path包括路径中每一步的观测值、图像观测值、行动值、奖励、下一个观测值、终端状态。

convert_listofrollouts:分拆路径集,分别构建各个元素。

将路径集(多条路径)的每一条路径的各个元素取出来,重新按元素组合。

观测值:每一条路径中每一步观测值的合并。

动作值:每一条路径中每一步动作值的合并。

下一个观测值:每一条路径中每一步下一个观测值的合并。

终端值:每一条路径中每一步终端值的合并。

连锁奖励值:每一条路径中每一步奖励值的合并。

非连锁奖励值:各条路径奖励的列表。

import numpy as np	
import time	

	
############################################	
############################################	

	
def sample_trajectory(env, policy, max_path_length, render=False, render_mode=('rgb_array')):	

	
    # initialize env for the beginning of a new rollout	
    ob = env.reset() # HINT: should be the output of resetting the env	

	
    # init vars	
    obs, acs, rewards, next_obs, terminals, image_obs = [], [], [], [], [], []	
    steps = 0	
    while True:	

	
        # render image of the simulated env	
        if render:	
            if 'rgb_array' in render_mode:	
                if hasattr(env, 'sim'):	
                    if 'track' in env.env.model.camera_names:	
                        image_obs.append(env.sim.render(camera_name='track', height=500, width=500)[::-1])	
                    else:	
                        image_obs.append(env.sim.render(height=500, width=500)[::-1])	
                else:	
                    image_obs.append(env.render(mode=render_mode))	
            if 'human' in render_mode:	
                env.render(mode=render_mode)	
                time.sleep(env.model.opt.timestep)	

	
        # use the most recent ob to decide what to do	
        obs.append(ob)	
        ac = policy.get_action(ob) # HINT: query the policy's get_action function	
        ac = ac[0]	
        acs.append(ac)	

	
        # take that action and record results	
        ob, rew, done, _ = env.step(ac)	

	
        # record result of taking that action	
        steps += 1	
        next_obs.append(ob)	
        rewards.append(rew)	

	
        # End the rollout if the rollout ended 	
        # Note that the rollout can end due to done, or due to max_path_length	
        rollout_done = 1 if (done or (steps >= max_path_length)) else 0 # HINT: this is either 0 or 1	
        terminals.append(rollout_done)	
        	
        if rollout_done: 	
            break	

	
    return Path(obs, image_obs, acs, rewards, next_obs, terminals)	

	
def sample_trajectories(env, policy, min_timesteps_per_batch, max_path_length, render=False, render_mode=('rgb_array')):	
    """	
        Collect rollouts until we have collected min_timesteps_per_batch steps.	

	
        implement this function	
        Hint1: use sample_trajectory to get each path (i.e. rollout) that goes into paths	
        Hint2: use get_pathlength to count the timesteps collected in each path	
    """	
    timesteps_this_batch = 0	
    paths = []	
    	
    print("\n")	
    while timesteps_this_batch < min_timesteps_per_batch:	
        path = sample_trajectory(env, policy, max_path_length, render, render_mode)	
        paths.append(path)	
        pathLen = get_pathlength(path)	
        timesteps_this_batch += pathLen	
        print("Steps for batch   " + str(len(paths)) + "= " + str(pathLen) + "\n")	
    print("Num Rollouts   " + str(len(paths)) + "\n")	
    return paths, timesteps_this_batch	

	
def sample_n_trajectories(env, policy, ntraj, max_path_length, render=False, render_mode=('rgb_array')):	
    """	
        Collect ntraj rollouts.	

	
        implement this function	
        Hint1: use sample_trajectory to get each path (i.e. rollout) that goes into paths	
    """	
    paths = []	

	
    for _ in range(ntraj):	
        path = sample_trajectory(env, policy, max_path_length, render, render_mode)	
        paths.append(path)	

	
    return paths	

	
############################################	
############################################	

	
def Path(obs, image_obs, acs, rewards, next_obs, terminals):	
    """	
        Take info (separate arrays) from a single rollout	
        and return it in a single dictionary	
    """	
    if image_obs != []:	
        image_obs = np.stack(image_obs, axis=0)	
    return {"observation" : np.array(obs, dtype=np.float32),	
            "image_obs" : np.array(image_obs, dtype=np.uint8),	
            "reward" : np.array(rewards, dtype=np.float32),	
            "action" : np.array(acs, dtype=np.float32),	
            "next_observation": np.array(next_obs, dtype=np.float32),	
            "terminal": np.array(terminals, dtype=np.float32)}	

	

	
def convert_listofrollouts(paths):	
    """	
        Take a list of rollout dictionaries	
        and return separate arrays,	
        where each array is a concatenation of that array from across the rollouts	
    """	
    observations = np.concatenate([path["observation"] for path in paths])	
    actions = np.concatenate([path["action"] for path in paths])	
    next_observations = np.concatenate([path["next_observation"] for path in paths])	
    terminals = np.concatenate([path["terminal"] for path in paths])	
    concatenated_rewards = np.concatenate([path["reward"] for path in paths])	
    unconcatenated_rewards = [path["reward"] for path in paths]	
    return observations, actions, next_observations, terminals, concatenated_rewards, unconcatenated_rewards	

	
############################################	
############################################	

	
def get_pathlength(path):	
    return len(path["reward"])	

www.zeeklog.com  - CS294(285) Actor Critic案例之路径工具类utils

Read more

60个“特征工程”计算函数(Python代码)

60个“特征工程”计算函数(Python代码)

转自:coggle数据科学 近期一些朋友询问我关于如何做特征工程的问题,有没有什么适合初学者的有效操作。 特征工程的问题往往需要具体问题具体分析,当然也有一些暴力的策略,可以在竞赛初赛前期可以带来较大提升,而很多竞赛往往依赖这些信息就可以拿到非常好的效果,剩余的则需要结合业务逻辑以及很多其他的技巧,此处我们将平时用得最多的聚合操作罗列在下方。 最近刚好看到一篇文章汇总了非常多的聚合函数,就摘录在下方,供许多初入竞赛的朋友参考。 聚合特征汇总 pandas自带的聚合函数 * 其它重要聚合函数 其它重要聚合函数&分类分别如下。 def median(x):     return np.median(x) def variation_coefficient(x):     mean = np.mean(x)     if mean != 0:         return np.std(x) / mean     else:         return np.nan def variance(x):     return

By Ne0inhk
90w,确实可以封神了!

90w,确实可以封神了!

要说24年一定最热的技术,还得是AIGC! 前段时间阿里旗下的开源项目,登上GitHub热榜! AI大热,如今ChatGPT的优异表现,必然会出现各种细分场景应用的工具软件,和大量岗位项目! 山雨欲来风满楼,强人工智能的出现,所有科技公司已经开始巨量扩招此领域的人才。算法的岗位,近三个月已经增长68%!这件事在HR届也是相当震撼的。 目前各行各业都不景气的市场,人工智能岗位却一直保持常青!甚至同属AI边缘岗都比其他岗薪资高40%! 与此同时,AI算法岗上岸也不简单,竞争激烈,好公司核心岗位不用说,谁都想去。 所以事实就是,想要上岸,门槛也逐渐变高,项目经历、实习经历都很重要,越早明白这个道理就越能提前建立起自己的优势。 但我在b站逛知识区的时候,经常看到有些同学,因为一些客观原因导致无法参加实习,这种情况下,如果你想提升背景,增加项目经历的话,可以试试这个《CV/NLP 算法工程师培养计划》。 目前已经有上千位同学通过该计划拿到offer了,最新一期学员就业薪资最高能拿到78K!年薪94w! 优势就是有BAT大厂讲师带领,手把手带做AI真实企业项目(包含CV、NLP等

By Ne0inhk
再见nohup!试试这个神器,Python Supervisor!

再见nohup!试试这个神器,Python Supervisor!

👇我的小册 45章教程:() ,原价299,限时特价2杯咖啡,满100人涨10元。 作者丨Ais137 https://juejin.cn/post/7354406980784373798 1. 概述 Supervisor 是一个 C/S 架构的进程监控与管理工具,本文主要介绍其基本用法和部分高级特性,用于解决部署持久化进程的稳定性问题。 2. 问题场景 在实际的工作中,往往会有部署持久化进程的需求,比如接口服务进程,又或者是消费者进程等。这类进程通常是作为后台进程持久化运行的。 一般的部署方法是通过 nohup cmd & 命令来部署。但是这种方式有个弊端是在某些情况下无法保证目标进程的稳定性运行,有的时候 nohup 运行的后台任务会因为未知原因中断,从而导致服务或者消费中断,进而影响项目的正常运行。 为了解决上述问题,通过引入 Supervisor 来部署持久化进程,提高系统运行的稳定性。 3. Supervisor 简介 Supervisor is a client/

By Ne0inhk
第一本给程序员看的AI Agent图书上市了!

第一本给程序员看的AI Agent图书上市了!

AI Agent火爆到什么程度? OpenAI创始人奥特曼预测,未来各行各业,每一个人都可以拥有一个AI Agent;比尔·盖茨在2023年层预言:AI Agent将彻底改变人机交互方式,并颠覆整个软件行业;吴恩达教授在AI Ascent 2024演讲中高赞:AI Agent是一个令人兴奋的趋势,所有从事AI开发的人都应该关注。而国内的各科技巨头也纷纷布局AI Agent平台,如:钉钉的AI PaaS、百度智能云千帆大模型平台等等。 Agent 是未来最重要的智能化工具。对于程序员来说,是时候将目光转向大模型的应用开发了,率先抢占AI的下一个风口AI Agent。 小异带来一本新书《大模型应用开发 动手做 AI Agent》,这本书由《GPT图解》的作者黄佳老师创作,从0到1手把手教你做AI Agent。现在下单享受5折特惠! ▼点击下方,即可5折起购书 有这样一本秘籍在手,程序员们这下放心了吧,让我们先来揭开 Agent 的神秘面纱。 AI Agent 面面观

By Ne0inhk