@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

どこの国の大統領もあんま冴えないよなと思いながら.地球に生きている.
2025.04.12
おはようございます.どこの国の大統領もあんま冴えないよなと思いながら.地球に生きているっていう日があと数十年後には有り得そうな気がしています.手始めに月が開拓されるだろう、そうなった時に地球と月を行来出来るようになる、それだけでも人類の考え方は変わっていくだろうと思う.
いま、老人の巻いた種で戦争しているけど昔と違ってこのグローバル化された世界の中で、わざわざ死にに行くことを選ぶ人は減ってきていると思っています.この最後の老人戦争が終わったら世の中、少しずつ少しずつ平和な社会になるのでは無いだろうか.
平和が加速する社会になるには社会が豊かになるのと同時にグローバルな思想を根付かせることが重要なんじゃないかなと思います.また人類が簡単に月へ旅行する時代になってきたら大きく考え方が変わっていくだろうと思います.
もっとグローバル化が進めば一国の大統領もいらないじゃないだろうか、この頃思うのは今の一国の大統領は何か役に立つことをしているのかといえば、そうでもない気がしています.世の中の流れを作っているのは一国の大統領じゃなくてグローバルに展開している企業なんだと思う.この加速を止めているのは政治なんだと.
流れに乗った方が最終的には皆の生活水準が上がり、そのうちお金が必要に無くなるような社会になるのでは無いだろうか.それぐらいの所まで技術的な進化が来ていているのに何だかその加速を各国の大統領や政治が自分の地位や名声のことばかり考えて加速を止めている.
何故ならそうなったと言えば各国の大統領はグローバルされる前に根付いたその国の思想が根強いからだ.なので恐らく人類としては最後の戦争になると思っています.紛争は残り続けると思うけどもこれから先、大戦はないだろうと.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
あんま冴え, わざわざ死, 世, 人類, 加速, 各国, 名声, 地位, 地球, 大戦, 大統領, 思想, 戦争, 手始め, 政治, 気, 紛争, 老人, 老人戦争, 進化,

未来予想は当たらないけど、加速するテクノロジーは分かるかも?
2022.01.02
未来予想は今まで当たった例のない自分ですが、加速するテクノロジーは分かるかもと思って書いています。コロナ禍になっていろいろな所で「DX、DX(ディーエックス)」って耳にするようになったと思います。DXって何の略かと言えばデジタルトランスフォーメーションの略です。じゃ、デジタルトランスフォーメーションって何だよとなるかと思います、デジタルトランスフォーメーションとは凄く簡単に言うとこれまで人がしていた仕事をパソコン等を使用して自動化することを指します。もっと言えばデジタルで仕事を効率化を指します。
例えばどんな事かと言えば、今まで人がしていた事務の入力作業を人工知能などを使用してコンピューターで自動化するなどや、今まで人が荷物を仕分けていたところをロボットが仕分けるなど。こう言ったことがコロナ禍で急速に浸透していっている事なのかなぁと思います。
特に事務処理の単純作業はコロナがおさまる頃にはコンピューターに置き換わっている可能性が高いです、これはコロナ後になると思いますが、自動運転車が街中を走り回る時代になり人は車を持たないようになると思います。このことに関しては数十年後の話になると自分は思っていてますが、何れはそうなると思っています。
DXになって得するのはITエンジニアや雇用主であって、それ以外の人は仕事を奪われるだけであって得にはなりませんので、あんまり日本ではコロナ禍であってもDXは進まないとは思いますが世界を見ると大きく変わっていっていると思います。なので、コロナ禍で確実に自動化は進むと思っています。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
DX, いろいろ, エックス, おさ, コ, こと, これまで, コロナ, コンピューター, ティー, テクノロジー, デジタル, ところ, トランス, パソコン, フォーメーション, まる, ロボット, 予想, 事, 事務, 人, 人工, 仕事, 何, 作業, 使用, 例, 入力, 処理, 加速, 効率, 単純, 急速, 所, 未来, 浸透, 略, 知能, 禍, 簡単, 耳, 自分, 自動, 荷物,

恒例の来年はこうなる的なおいらの予測。
2020.12.26
今まで来年はこうなる的な技術的な予測を書いてきましたが、今年はちょっと違う記事を書こうと思います。じぶんのフェイスブックの背景も来年用に若干変えましたが、来年は変革の年になると思っています。世の中、とくに日本は大きく変わる変革の年になる。オリンピックがあってもなくても大きく変わる年になるということです。まず、3月?5月の間にコロナワクチンの効果により、大きく感染者数は変わると考えています、そして夏頃になると感染者数は激減していると思います、もしオリンピックが中止になればおそらくこのよみは的中するのではないかなと思っています。
コロナのワクチンにより来年の冬には世界中の感染者数は激減している。そうなれば世の中もとの生活に戻ると思いますが、今まで加速したものはそのまま残り続け進化し続けると思います。とくにデジタル技術は社会に大きく浸透する年になると思います。その波で、失業者なども増えると思いますし、今まで以上に格差社会になっていくことでしょう。フリーランスの人達も増えていく中で、いままでの問題点などは改善されていき、より良くなる一方でいままでの働き方や会社が変わっていく年にもなると思います。
簡単に言えばアメリカのようなスキルが無いと生活していくのが苦しくなる世の中に変わっていくでしょうし、そのスキルを身につけるにも大変な労力がかかると思います。数年後にはフリーランスの割合は右肩上がりに増えていき稼げるフリーランスしか生き残れない世界になると思います。フリーランスとフリーターが割合を正社員よりも大きく占めるようになると、社会は否応なしに社会は変わります。その始まりの年が来年だろうと自分は思っています。
世の中、徐々に変わるパターンといきなりがらりと変わるパターンがある。徐々に変わるパターンはいつの間にかにガラケーからスマホに変わっていたりという感じに数年で変わる場合と、コロナのように否応なしにがらりと社会が変わるパターンがある、自分はこれから始まる変革は、前者のパターンかと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
3, 5, おいら, オリンピック, こと, コロナ, じぶん, デジタル, プ, フェイスブック, もと, もの, ワクチン, 世, 世界, 中, 中止, 予測, 今年, 以上, 冬, 加速, 効果, 変革, 夏頃, 失業者, 年, 恒例, 感染者, 技術, 日本, 来年, 格差, 波, 浸透, 激減, 生活, 的, 的中, 社会, 背景, 若干, 記事, 進化, 間,

たぶん、このままではトヨタ世界から置いてけぼりになる。
2020.12.19
たぶん、このままではトヨタ置いてけぼりになる。脱ガソリンが消費者目線ではないとか言ってる社長がいまのトヨタの社長でいると世界から置き去りになる気がする。確かにお客様目線は大事だと思いますが、いまの時点で脱ガソリンじゃないものにシフト出来なければ、衰退すると自分は思っています。
車をシェアする時代といい、豊田市に未来都市を建設するとか計画がありながら、脱ガソリンはちょっと早すぎないかというのは、ちょっと変だなと思います、社会は車をシェアする時代になるということが今の時点で理解していないとやばくないかな?、そもそもIT巨人はその方向へ加速させているし、自動運転車のスタートアップ社は続々と登場している。
そんな中、世界的にもまだ有名なトヨタが脱ガソリンちょっとまってはないと思います。そこに乗れないのなら、たぶん世界のトヨタから失墜するかもしれない。
頑張れトヨタ!!
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
IT, アップ, いま, お客様, ガソリン, こと, このまま, シェア, シフト, スタート, そこ, トヨタ, もの, 世界, 中, 今, 加速, 変, 大事, 失墜, 巨人, 建設, 方向, 時代, 時点, 有名, 未来, 気, 消費者, 理解, 登場, 目線, 社会, 社長, 置いてけぼり, 置き去り, 自分, 自動, 衰退, 計画, 豊田市, 車, 運転, 都市,

すきま産業。
2020.12.09
すきま産業、簡単に言うと車輪の再発明かニッチ戦略だと思って頂ければよいのかな??、世の中にはいろいろな会社がある、世の中の流れに上手く乗れる産業が生き残り乗れなかった会社は倒産していく。悲しいけどそれはこの567の時代でも同じです。
にっちもさっちもいかなくなる会社が結構増えてきている反面、いま、売上が上がっている産業もあり、また新たなサービスも生まれてきている。
来年あたりから、567が終息していき2?3年で567はインフルエンザレベルになるだろう。そうなるとニューノーマルなんて必要なくなりノーマルな時代が来ると思います。日本ではデジタル化に官民連携して進んでいます。たぶん、この流れは加速します。
どんな企業にもIT人材が必要になる時代へ、世の中シフトしていくでしょう。アナログからデジタルへ。それは良いことでもあるけど悪いこともあります、例えば仕事の効率化によるリストラが必ず起きます。規則正しいこととルールが存在する仕事はとてもデジタル化するのに適してます。
簡単なものならば、数ヶ月で構造をデジタル化することが出来るでしょう。そういうデジタル化を取り扱うプラットフォームの企業が必ず現れます。そして近い将来、そのプラットフォームはクラウドサービスとして成り立つと自分は思っています。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, 3, 567, IT, アナログ, いま, いろいろ, インフルエンザ, こと, サービス, シフト, すきま, それ, デジタル, ニッチ, ニュー, ノーマル, リストラ, ルール, レベル, 世, 中, 人材, 仕事, 企業, 会社, 倒産, 再発, 加速, 効率, 反面, 存在, 官民, 必要, 戦略, 日本, 明か, 時代, 来年, 産業, 簡単, 終息, 車輪, 連携,
ニューズピックスマガジンの熱量&質量。
2020.09.07
昨日、2020大予測を読んでみて思ったこと、予測が加速したことと外れた予測もあるにせよ。電子書籍ではだいたい1000円以下の値段で売られている、この雑誌はお得だと思います。
内容も充実してデザインも良い感じです。そして全面カラーです、ある意味、一つのファッション的な要素もあるなと感じます。
この雑誌は三ヶ月置きぐらいの間隔で雑誌が発売されているが今年はニューズピックスマガジンは発売されておらず、ニューズピックスブランドマガジンが発売されているだけ。定期購読でお値段を下げたらそれなり電子書籍では需要がありそうな気がした。
因みにじぶんはこういう未来予測や新しい技術の記事が大好きです、新しい最先端のテクノロジーは本当に夢があって良いなと感じます。
ニューズピックスは紙媒体から動画媒体へシフトしてて、たぶんこれからもメディアへ力を入れるだろうと思うのだけど、せっかく独自で情報を発信しているのだからもう少し尺をとれば良いのになと思って番組を見ています。
ただ、こういう媒体は良くも悪くも自分達の思いやメッセージが強い気がしていて、ある意味、テクノロジー教になっている気がする、そういう事を客観的に見てひとつのメディアとして見たほうが良さげかと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1000, 2020, カラー, こと, これ, シフト, じぶん, テクノロジー, デザイン, ニュース, ピックス, ファッション, ブランド, マガジン, メディア, 一つ, 三, 予測, 今年, 値段, 充実, 全面, 内容, 力, 加速, 動画, 夢, 媒体, 定期, 尺, 情報, 意味, 感じ, 技術, 昨日, 書籍, 最先端, 未来, 本当, 気, 熱量, 発信, 発売, 紙媒体, 要素, 記事, 質量, 購読, 間隔, 雑誌, 電子, 需要,

AMP (Accelerated Mobile Pages)HTMLしなさいと勧められる。
2017.07.12
AMP (Accelerated Mobile Pages)HTMLしなさいと勧められるので
WordPressのAMPを導入しました。
さて、「AMPってなんでですかー?」って事だけど
簡単に言えばグーグルが進めているモバイル(スマホ)の表示速度を
改善させるあらたなHTMLなどの記述を指すみたい。
ちなみにアクセルレイテッド モバイル ページと読むそうですよ。
アクセルレイテッドとは加速を意味するものだとか、、。
ほぼHTMLとCSSだけしか許さないので
当たり前のごとく表示速度は速いですが、javascriptの記述に
制限があるので、殆どのWordPressのプラグインjsは動かないと
言っても良いです。
※ちなみにAMPに広告を表示させたい場合などは
プラグインを若干、編集しないといけない場合があります、
また、そのままJSをコピペで貼っても表示されないので
AMP用の記述などが必要になりますが、恐らくAMPじわじわ浸透していく
だろうなぁと感じます。最終的にJSなどがサーバサイドで動かすように
なるじゃないのかなぁと思っています(今はクライアント側で動いているけど)。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Accelerated, amp, css, html, javascript, JS, mobile, Pages, WordPress, アクセル, カー, グーグル, コピペ, じわ, スマホ, テッド, プラグイン, ページ, もの, モバイル, レイ, 事, 制限, 加速, 場合, 導入, 広告, 当たり前, 必要, 意味, 改善, 殆ど, 用, 簡単, 編集, 若干, 表示, 記述, 速度,
誰でもクリエーターの時代{電子媒体での販売の加速が進んでる}。
2015.05.09
誰でもAmazonで自費出版(*1)(電子書籍)が出来る時代が到来していることにこの頃、気づきました。電子書籍といえば漫画もそうですがこの頃は、出版社を通さずそのまま、漫画アプリ(*1)などにリリースする個人のクリエーターさんが増えてます。これはマンガや小説に限らず、音楽(*1)やゲーム(*1)でも同じです。昔はネットで販売といえばソフトウェア(*1)ぐらいが主でしたがこの頃はありとあらゆるモノが販売することが可能になってきています。このサービスは、ひとつ問題が有りますクリエーターさんの芽を摘む恐れを秘めている可能性があるんです。何も経験のないクリエーターさんがいきなり市場で、ユーザーの評価をモロに受ける事になります。これってあまり自分は良いとは思えません。売れれば良いのですが売れないことの方が多くクリエーターさんには精神的にダメージが大きいと思います。今後、この流れは止まらないでしょうから、クリエーターさんがトップで生き残り続けるには、かなり大変な時代になりそうな気がします。ただ、市場の流れは早くなると思いますが良い物を出し続けることが出来れば生き残る事は可能です。これは今も昔も変わらないクリエーターさんの置かれている環境だと思います。ただ、時代の流れでネットという環境に移って行っただけの事です(昔より少しシビアになってきているかもしれません)。
(*1):販売方法のリンク
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
クリエーター, サービス, ソフトウェア, ダメージ, ネット, マンガ, モロ, ユーザー, 出版社, 加速, 市場, 昔, 時代, 流れ, 漫画アプリ, 環境, 自費出版, 販売, 電子媒体, 電子書籍,
映画、フライト・ゲームを観てきましたよ。ネタバレなしな感想(´Д⊂
2014.09.06
映画、フライト・ゲームを観てきましたよ。ネタバレなしな感想なんか記載しときます。この映画、この頃、見かけなくなったオーソドックスな映画です。昔は結構こういう映画作品が多かったのですけど、ここ数年、見かけなくなった映画だったので、なんだか逆に新鮮な感じがしました。飛行機機内での見えない敵(テロ)との攻防{頭脳戦}を描いた作品です。ラストまで手に汗握る映像になっている感じがします。この映画の特徴は緩やかなストーリー展開から徐々に展開が加速{スピード}する映画になっています。くれぐれもノンストップアクション映画とは違いますので、そういう期待を込めて見に行くとガッカリしますので要注意です。
まとめ、頭脳戦{心理戦}の攻防が好きな方や犯人探し{推理}が好きな人向けの映画です。ちなみに、自分は犯人が最後の最後までわかりませんでした{乗客全員&乗務員疑わしくて…(´∀`)実際、映画みたいな場面に遭遇したら人間不信に陥りそうです。}。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
くれぐれ, ストーリー展開, スピード, テロ, ノンストップアクション映画, フライト・ゲーム, ラスト, 乗客全員&乗務員, 人間不信, 加速, 始末, 心理戦, 感想, 推理, 攻防, 汗握る映像, 犯人, 犯人探し, 要注意, 頭脳戦, 飛行機機内,