@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

いろいろ問題のあるテスラだけど凄いなと思う😶。
2022.08.28
こんにちは、秋模様ですね、今日は一日こんな天気だと良いですけど昼から気温が上がりそうですね。
さて、いろいろ問題のあるテスラだけども自動運転技術はほぼ完全自動運転になりつつある。
またテスラの生産ラインもかなりオートメーション化が進んでいる模様です、このまま、自動化が進むと本当に人は何もしなくて良くなる時代が来るのかもしれない。それが良いことかどうかは分からないですけど、100年後に自発的に仕事をしたいと言うと変わってますね、なんて言われるかも知れません。
そんな感じで恐らく今世紀中には自動化により殆どの事がAIやロボットに取って変わることになると思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 100, 4, 7, AI, CnXE, com, https, watch, www, youtube, yOx, いろいろ, オートメーション, かなり, こと, このまま, それ, テスラ, ライン, ロボット, ワンショット, 一, 事, 人, 今世, 今日, 仕事, 何, 問題, 天気, 完全, 感じ, 技術, 昼, 時代, 本当, 模様, 殆ど, 気温, 生産, 秋, 紀中, 自動, 運転,

庵野秀明×松本人志の対談をアマプラで視聴しました。
2021.08.21
止まない雨はないと言いますが、雨の日が続いています。因みにこれを書いた日は晴れておりました。しかし明日からまた雨模様が続くようです。来週の後半には晴れるような予報ですけどね。
さて、庵野秀明×松本人志の対談をアマプラで視聴しました。感想としましては松本人志さんはドキュメンタリー系の司会には向かないかなと思いました、庵野秀明さんの読みは的確かと思います。庵野秀明さんと松本人志さんは、住んでいる世界が違うからかもしれませんが、話があまり噛み合っていないようでしたね。圧倒的に会話の量は 庵野秀明さんが多い。
そして庵野秀明さんはヲタクの話になると完全にヒートアップする人だなと感じました。あのテンションには同じぐらい知識力のある人を連れてこないと合わないだろうという印象です。だから宮崎駿さんと庵野秀明さんはあっていたのかもしれません。宮崎駿さんの事を庵野秀明さんは宮ちゃんって読んでいるらしいですからね。
巨匠をフレンドリーな感覚で呼べる人なんてあまりいないじゃないかと思います。あとは鈴木敏夫プロデューサーぐらいのもので限らたものではないでしょうか?
話が脱線しましたが、庵野秀明×松本人志の対談は庵野秀明さんが語るというタイトルが良いぐらい話の量は庵野秀明さんが多いです。庵野秀明さんファンにとっては良い対談ですが、松本人志さんファンにとっては少しがっかりするのではないでしょうか。自分は庵野秀明ファンなので良かったですけどね。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アップ, アマ, これ, テンション, ドキュメンタリー, ヒート, プラ, ヲタク, 世界, 予報, 事, 人, 会話, 印象, 司会, 完全, 宮, 宮崎, 対談, 庵野秀明, 後半, 感想, 日, 明日, 来週, 松本人志, 的確, 知識, 視聴, 話, 量, 雨, 雨模様, 駿,
半生生きたのか分からない。
2020.10.18
常識的に言えばいま自分は半生ぐらいの年月を生きたのかもしれないけれど、これから数十年生きていれば、医学も発展し不老不死まではいかないまでも、健康な状態で長生きできる期間が増えるのではないかと思っています。あの完全自動運転を成し遂げたGさんがいま取り組んでいるのが不老不死の研究です。
間違いなく、その結果が数十年後には反映されると思っています。
さて、そんな未来の話は横に置いといてコロナで世の中、変わるよというひとがいます。企業なども変わっていくだろういう方といやいや変わらないままだよという人もいます。自分はコロナが終息すれば人はまた同じような生活をするでしょうというのが自分の未来予測です。IT業界でもリモートワーカーも確かに増えるでしょうけど…企業全体がすべてリモートに変わるわけがないのが、もっともな考え方なのではないでしょうか。
世の中、そんなに変わらないし急激なシフトは反感を買うと思います。それに変われない人々が権力の頂点あたりにいる日本ではそれほど変わらないと。
世の中、徐々に変えていくのが正解だと思います。Gさんはこの頃、その手法を使っているような気がします。あれもこれもGさんの企業のものを使用している。だけど、あまり大々的には発表しなくいつの間にか便利だから使っているという感じです。
そういうことでコロナ禍で世の中、大きな変化はないのでは?
そして自分は半生生きたとも言えないのでは?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
IT, いま, これ, コロナ, シフト, すべて, それ, ひと, まま, もっとも, リモート, ワーカー, わけ, 不老不死, 世, 中, 予測, 人, 人々, 企業, 健康, 全体, 医学, 半生, 反感, 反映, 完全, 年月, 数十, 方, 日本, 期間, 未来, 業界, 権力, 横, 状態, 生活, 発展, 研究, 終息, 結果, 考え方, 自分, 自動, 話, 運転, 長生き, 頂点,
次の次が、唯の次になってしまった。
2020.04.14
次の次が、唯の次になってしまった感じするSFCのトークです。世の中を変える側にいる人です。世の中、2?3年の間に大きくデジタル化が進んでいくと思います。その中でデジタルに使う側とデジタルを提供する側や人工知能を提供する側と人工知能に取って代わられる側に大きくチャンジすると思います。生き残れる産業は労働系のお仕事かなと思っています。
そんな労働系のお仕事にもデジタルの波は押し寄せてくるとは思いますが、現場で汗水たらしてお仕事をしている人がロボットに置き換わることは中小企業ではまず起きないでしょう。ただ大企業の生産ラインなどは完全無人化になる恐れはないとは言えません。
無職で暇なのでいろいろこの機会に今後、どのような産業がデジタル化の波で消えていくか考えた所、一番は会計を担当している方などは消えてなくなりそうです。また一般的な事務も消えていくでしょう。あとWEBのコーディングやプログラマーという職も何れは消えていくと自分は思っています。なので今からプログラマーを目指そうとしている人は違う産業に転職したほうが良いと思います。過去の膨大なプログラミングデータから人工知能が学び、例えばお問い合わせフォームなどを人工知能が生成することは今でも可能かと思います。なので元々デジタル化されているものを作業している方は特に人工知能に仕事を取られる可能性が高いと思います。逆に先程述べた通り労働系は最後の最後までお仕事を奪われる恐れが少ないです。
いま世の中、新型コロナで大変な状況になっていると思います、都市部では必要なライフラインに関わる仕事以外は休業かテレワークになってますよね。それを見て殆どのサービス業は人が我慢すれば必要でもないのだと錯覚してしまいます。また自分と同じ様に感じた人も少なからずいるかなと思います。5割?7割のお仕事は本当に必要なのかという疑問。
新型コロナが終息して、世の中また同じ様に同じ感覚で生きて行けれるかと言えばそうではない気がします。特に経営者が経営方針を変えていくのは必然的なことかなと思います。なので世の中、おそらくデジタル最適化されます。デジタルで置き換えれそうだなと思っている作業があるとするならば、それは経営者も同じ様に考えると思っていた方が良いのではないかと思います。
因みに自分が経営者側なら完全リモートワーク(テレワーク)の経営にシフトします。良い人材を集めて良いサービスを迅速に提供することが可能ならば都心の一等地にオフィスを借りる必要なんて無いと思うからです。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, 3, SFC, web, お仕事, コーディング, こと, チャンジ, デジタル, トーク, プログラマー, ライン, ロボット, 一, 世, 中, 中小企業, 事務, 人, 人工, 今後, 企業, 会計, 何れ, 側, 労働, 唯, 完全, 思, 感じ, 所, 担当, 提供, 方, 暇, 機会, 次, 汗水, 波, 無人, 無職, 現場, 生産, 産業, 知能, 職, 自分, 間,

悲報:アレが減っている?
2020.04.08
YOUTUBERの人達が広告の収益が減っていると最近聞きましたが、それはブロガーさん達も同じかなと思います。
こういうご時世だから仕方がないと思います。coronavirus-19での倒産件数も日々増えています。企業は生き物だということもあるように、死んでいく生物もいれば新たに誕生する生物もいます。順応性のある生き物はこんな中でも生き残ることが出来るかと思いますが、中々、大変だなと感じますね。ちなみに最強の生物と言われる生き物にクマムシという生物がいます。この生物は熱い環境にも寒い環境にも、はたまた真空でもとあらゆる極寒の環境でも生きていける生物です。そんな企業は無いと思いますが、強いていうならGAFA+BATかなと思います。
これから世の中、どうなっていくのだろうかなと思っています。過去の感覚には戻れるのだろうか、ちなみに日本で完全リモートワークを始めた企業は5%ぐらいだそうです。これは多いのか少ないのか少々わからないですね。全企業から言えばIT企業はどれぐらいシェア率なのか?この5%はIT企業がほぼほぼの割合だとすると、今後、他の企業にもリモートワークが導入され始めるかと思っています。おそらく最初はとてもやり難いと感じるでしょう。日本でリモートワークとして上手く行っている会社があります。それの企業はソニックガーデンと言います、創業当初?からリモートワークを行っているそうです、なので今まで蓄積されたノウハウはかなりあるのではないでしょうか?これからリモートワークを始めようと考えている企業様や社員さんはアマゾンで「倉貫 義人」とググってみると社長が書かれた書籍がありますので参考にしてみてください。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
19, 5, Bat, coronavirus-, GAFA, IT, YOUTUBER, アレ, かな, クマムシ, こと, これ, ご時世, それ, ブロガー, リモート, ワーク, 世, 中, 中々, 人, 件数, 企, 企業, 倒産, 収益, 大変, 完全, 広告, 悲報, 感覚, 日々, 日本, 最強, 最近, 極寒, 環境, 生き物, 生物, 真空, 誕生, 過去, 順応性,
完全自動運転の車が低価格で発売されたら。
2019.04.07
グーグルはおそらく高級車からの販売は望んでいないだろう。
なぜなら、自動運転車で覇権を握りたいから、なのでおそらく既存の車と
同じぐらいの値で販売されるのではないだろうか?
完全自動運転の車に乗るのが恐いなどと思っている人も
最終的には完全自動運転の運転に乗る時代になるだろう。
自動運転車に乗る人が増えれば増えるほど
事故は起こらなくなる。
当たり前の話だが、事故を引き起こしているのは
車を操縦しているひとが起こしているのだから、ひとが
自分達の決めたルールを守れば事故はいまでも
事故は起こらなくなる。
普及の鍵は低価格だと思っています。
そんなこと誰もが承知なのでですが、企業に体力がないので
ほとんどの企業はそんな低価格の完全自動運転のカーを
販売できないだろうけれど、グローバル企業は
それが出来る体力がある。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
3, 93, com, nbsp, XB-ygEJ, youtube, いま, カー, グーグル, グローバル, こと, ソレ, ひと, ほとんど, ルール, 事故, 人, 企業, 体力, 価格, 値, 完全, 当たり前, 承知, 操縦, 既存, 時代, 普及, 発売, 自分, 自動, 覇権, 話, 誰, 販売, 車, 運転, 鍵, 高級,
自動運転車のブレイクスルーは必ず起きる。
2017.09.07
自動運転車のブレイクスルーは必ず起きると自分が予言しても
あまり納得する人はいないかもしれないけれども、これは必ず起きる事です。
おそらく誰かが今の自動車を安価な方法で自動運転車に改造できる
マニュアルをオープンに提供することになるのではないだろうか、もしくは
グーグルが今までの技術をオープンで提供する可能性は無いとはいえない。
グーグルかテスラが完全自動運転を2025年までには実現できるのではないかと
思いますが、この技術をオープンで提供しない限り、急速に自動運転車が普及する事は
ないだろうから、アンドロイドの用にグーグルはオープンでベースの技術を提供するのでは
ないだろうかと思っています。
ちなみに自分のように自動運転車を待ちわびるひとは少ないらしい。
殆どのひとは自動運転車は恐いなどの印象を頂いているそうです、自動運転車になれば
安価な方法で遠出が可能になるということが自分にとっては、かなりお得感があり
今から自動運転車が待ち遠しい。皆が自動運転車に乗るような社会になれば
渋滞モノからは解消されるだろう。もしかしたら信号というものがなくなるかもしれない。
グーグルやテスラがブレイクスルーを起こさなくても
必ず誰かがブレイクスルーを起こすだろうと、その確率はかなり高いと
自分は思っています。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2025, アンドロイド, オープン, お得感, かなり, グーグル, こと, これ, スルー, テスラ, ひと, ひとは, ブレイク, ベース, マニュアル, 予言, 事, 人, 今, 印象, 可能, 可能性, 安価, 完全, 実現, 急速, 技術, 提供, 改造, 方法, 普及, 殆ど, 用, 皆, 社会, 納得, 自分, 自動, 自動車, 誰か, 運転, 遠出, 限り,